| ... | ... | @@ -176,7 +176,16 @@ Par la suite, nous ne nous intéresserons qu'à la modélisation du *R-Unit*. En |
|
|
|

|
|
|
|
<br/><em>Modèle de R-Unit</em>
|
|
|
|
|
|
|
|
Le Perceptron se compose donc uniquement d'une cellule prendant $`n`$ entrées. Le neurone se déclenche au delà d'un seuil $`\theta`$ similairement au modèle de McCulloch et Pitts. La grande différence réside dans le fait que les entrées sont
|
|
|
|
Le Perceptron se compose donc uniquement d'une cellule prenant $`n`$ entrées. Le neurone se déclenche au delà d'un seuil $`\theta`$ similairement au modèle de McCulloch et Pitts. La grande différence réside dans le fait que les entrées sont **pondérées**. Chaque entrée possède un poids modifiable qui nous servira à effectuer l'apprentissage. L'ensemble de ces poids forme la
|
|
|
|
**matrice d'interaction**. Ainsi au lieu d'effectuer la somme de ses entrées, le Perceptron réalise une **somme pondérée** $`\sum x_i w_i`$ des valeurs des entrées fois leurs poids respectifs. Si cette somme pondérée dépasse le seuil, le neurone s'active.
|
|
|
|
|
|
|
|
Ainsi l'apprentissage se fait par modification de la matrice d'interaction $`w`$. Elle modélise l'action inhibitrice ou activatrice des synapses.
|
|
|
|
|
|
|
|
Mais il reste aussi à régler le seuil $`theta`$. En théorie cela modélise le moment où le neurone a reçu suffisamment de signaux en entrée et s'active. Ce seuil fait aussi partie de l'apprentissage, mais nous verrons qu'il est plus compliqué à modifier. Pour éviter de le traiter à part, nous pouvons modifier légèrement le modèle en transformant le seuil en une "fausse" entrée dont la valeur est toujours -1 mais qui possède une pondération $`w_0`$ qui va elle aussi évoluer avec les autres pondérations, on appelle cette entrée le Biais.
|
|
|
|
|
|
|
|

|
|
|
|
<br/><em>Modèle de R-Unit avec biais</em>
|
|
|
|
|
|
|
|
|
|
|
|
### Processus d'apprentissage
|
|
|
|
|
| ... | ... | |
| ... | ... | |