Réseau de neurones artificiels - blocs de construction

Le traitement de l'ANN dépend des trois éléments de base suivants -

  • Topologie du réseau
  • Ajustements de poids ou apprentissage
  • Fonctions d'activation

Dans ce chapitre, nous discuterons en détail de ces trois éléments constitutifs de l'ANN

Topologie du réseau

Une topologie de réseau est la disposition d'un réseau avec ses nœuds et ses lignes de connexion. Selon la topologie, ANN peut être classé comme suit:

Réseau Feedforward

C'est un réseau non récurrent ayant des unités de traitement / nœuds en couches et tous les nœuds d'une couche sont connectés aux nœuds des couches précédentes. La connexion a des poids différents sur eux. Il n'y a pas de boucle de retour, ce qui signifie que le signal ne peut circuler que dans une seule direction, de l'entrée à la sortie. Il peut être divisé en deux types:

  • Single layer feedforward network- Le concept est de l'ANN feedforward n'ayant qu'une seule couche pondérée. En d'autres termes, nous pouvons dire que la couche d'entrée est entièrement connectée à la couche de sortie.

  • Multilayer feedforward network- Le concept consiste en un ANN anticipé ayant plus d'une couche pondérée. Comme ce réseau a une ou plusieurs couches entre la couche d'entrée et la couche de sortie, il est appelé couches cachées.

Réseau de rétroaction

Comme son nom l'indique, un réseau de rétroaction a des chemins de rétroaction, ce qui signifie que le signal peut circuler dans les deux sens à l'aide de boucles. Cela en fait un système dynamique non linéaire, qui change continuellement jusqu'à ce qu'il atteigne un état d'équilibre. Il peut être divisé selon les types suivants -

  • Recurrent networks- Ce sont des réseaux de rétroaction avec des boucles fermées. Voici les deux types de réseaux récurrents.

  • Fully recurrent network - C'est l'architecture de réseau neuronal la plus simple car tous les nœuds sont connectés à tous les autres nœuds et chaque nœud fonctionne à la fois en entrée et en sortie.

  • Jordan network - Il s'agit d'un réseau en boucle fermée dans lequel la sortie retournera à l'entrée en retour comme indiqué dans le diagramme suivant.

Ajustements de poids ou apprentissage

L'apprentissage, en réseau de neurones artificiels, est la méthode de modification des poids des connexions entre les neurones d'un réseau spécifié. L'apprentissage en ANN peut être classé en trois catégories, à savoir l'apprentissage supervisé, l'apprentissage non supervisé et l'apprentissage par renforcement.

Enseignement supervisé

Comme son nom l'indique, ce type d'apprentissage se fait sous la supervision d'un enseignant. Ce processus d'apprentissage est dépendant.

Lors de l'apprentissage de l'ANN sous apprentissage supervisé, le vecteur d'entrée est présenté au réseau, qui donnera un vecteur de sortie. Ce vecteur de sortie est comparé au vecteur de sortie souhaité. Un signal d'erreur est généré s'il y a une différence entre la sortie réelle et le vecteur de sortie souhaité. Sur la base de ce signal d'erreur, les poids sont ajustés jusqu'à ce que la sortie réelle corresponde à la sortie souhaitée.

Apprentissage non supervisé

Comme son nom l'indique, ce type d'apprentissage se fait sans la supervision d'un enseignant. Ce processus d'apprentissage est indépendant.

Au cours de la formation de ANN sous apprentissage non supervisé, les vecteurs d'entrée de type similaire sont combinés pour former des grappes. Lorsqu'un nouveau modèle d'entrée est appliqué, le réseau neuronal donne une réponse de sortie indiquant la classe à laquelle appartient le modèle d'entrée.

Il n'y a aucun retour de l'environnement sur ce que devrait être la sortie souhaitée et si elle est correcte ou incorrecte. Par conséquent, dans ce type d'apprentissage, le réseau lui-même doit découvrir les modèles et les caractéristiques des données d'entrée, et la relation des données d'entrée sur la sortie.

Apprentissage par renforcement

Comme son nom l'indique, ce type d'apprentissage est utilisé pour renforcer ou renforcer le réseau sur certaines informations critiques. Ce processus d'apprentissage est similaire à l'apprentissage supervisé, mais nous pourrions avoir très moins d'informations.

Lors de la formation du réseau sous apprentissage par renforcement, le réseau reçoit des retours de l'environnement. Cela le rend quelque peu similaire à l'apprentissage supervisé. Cependant, le retour d'expérience obtenu ici est évaluatif et non instructif, ce qui signifie qu'il n'y a pas d'enseignant comme dans l'apprentissage supervisé. Après avoir reçu les commentaires, le réseau effectue des ajustements des poids pour obtenir de meilleures informations critiques à l'avenir.

Fonctions d'activation

Il peut être défini comme la force ou l'effort supplémentaire appliqué sur l'entrée pour obtenir une sortie exacte. Dans ANN, nous pouvons également appliquer des fonctions d'activation sur l'entrée pour obtenir la sortie exacte. Voici quelques fonctions d'activation intéressantes -

Fonction d'activation linéaire

Elle est également appelée fonction d'identité car elle n'effectue aucune édition d'entrée. Il peut être défini comme -

$$ F (x) \: = \: x $$

Fonction d'activation sigmoïde

Il est de deux types comme suit -

  • Binary sigmoidal function- Cette fonction d'activation effectue l'édition d'entrée entre 0 et 1. Elle est de nature positive. Il est toujours borné, ce qui signifie que sa sortie ne peut pas être inférieure à 0 et supérieure à 1. Elle est également de nature strictement croissante, ce qui signifie que plus l'entrée la plus élevée serait la sortie. Il peut être défini comme

    $$ F (x) \: = \: sigm (x) \: = \: \ frac {1} {1 \: + \: exp (-x)} $$

  • Bipolar sigmoidal function- Cette fonction d'activation effectue l'édition d'entrée entre -1 et 1. Elle peut être de nature positive ou négative. Il est toujours borné, ce qui signifie que sa sortie ne peut pas être inférieure à -1 et supérieure à 1. Elle est également de nature strictement croissante comme la fonction sigmoïde. Il peut être défini comme

    $$ F (x) \: = \: sigm (x) \: = \: \ frac {2} {1 \: + \: exp (-x)} \: - \: 1 \: = \: \ frac {1 \: - \: exp (x)} {1 \: + \: exp (x)} $$