Perceptron

Un article de Wikipédia, l'encyclopédie libre.

Perceptron avec 2 entrées et une fonction d'activation à seuil
Perceptron avec 2 entrées et une fonction d'activation à seuil

Le perceptron peut être vu comme le type de réseau de neurones le plus simple. C'est un classifieur linéaire. Ce type de réseau neuronal ne contient aucun cycle (en anglais feedforward neural network). Le perceptron a été inventé en 1957 par Franck Rosenblatt au Cornell Aeronautical Laboratory, inspiré par la théorie cognitive de Friedrich Hayek et celle de Donald Hebb.

Dans sa version simplifiée, le perceptron est mono-couche et n'a qu'une seule sortie à laquelle toutes les entrées sont connectées. Les entrées et la sortie sont booléennes.

Le potentiel post-synaptique \sum W_i e_iWi est le poids de l'entrée ei.

La fonction d'activation est la fonction de Heaviside (la fonction signe est parfois utilisée) H(x)=\left\{\begin{matrix} 0 & \mathrm{si} & x < 0 \\ 1 & \mathrm{si} & x \ge 0\end{matrix}\right. , avecx = \sum W_i e_i + b. Ici, b définit le seuil à dépasser pour que la sortie soit à 1.

On trouve fréquemment une variante de ce modèle de base dans laquelle la sortie prend les valeurs -1 et 1 au lieu de 0 et 1.

[modifier] Apprentissage du Perceptron

[modifier] Loi de Hebb

Voir règle de Hebb.

[modifier] Bibliographie

  • F. Rosenblatt (1958), "The perceptron: a probabilistic model for information storage and organization in the brain",
- repris dans J.A. Anderson & E. Rosenfeld (1988), Neurocomputing. Foundations of Research, MIT Press