| ... | ... | @@ -200,6 +200,31 @@ Le Perceptron utilise un **apprentissage supervisé par renforcement.** En fonct |
|
|
|
|
|
|
|

|
|
|
|
|
|
|
|
Le Perceptron fonctionne sur une variante de la règle de Hebb:
|
|
|
|
|
|
|
|
```math
|
|
|
|
w_{ij}(t+1) = w_{ij}(t) + \eta(s_i\cdot s_j)
|
|
|
|
```
|
|
|
|
|
|
|
|
Le neurone $`j`$ prenant ses entrées sur la sortie du neurone $`i`$, avec :
|
|
|
|
|
|
|
|
- $`w_{ij}(t)`$: le poids de la connexion entre $`i`$ et $`j`$ au temps $`t`$.
|
|
|
|
- $`\eta`$: le pas d'apprentissage, $`0 < \eta \leq 1`$.
|
|
|
|
- $`s_i`$: signal transmis par le neurone $`i`$.
|
|
|
|
- $`s_j`$: signal transmis par le neurone $`j`$.
|
|
|
|
|
|
|
|
|
|
|
|
Mais la règle de Hebb ne peut que **renforcer** les pondération synaptiques !
|
|
|
|
|
|
|
|
La règle du Perceptron est une version évoluée de la règle de Hebb :
|
|
|
|
|
|
|
|
```math
|
|
|
|
w_{ij}(t+1) = w_{ij}(t) + \eta(d_j - s_j)s_i
|
|
|
|
```
|
|
|
|
- $`\eta`$ : le pas d'apprentissage entre $`0`$ et $`1`$. On peut le faire varier durant l'apprentissage, partant d'une valeur élevée, pour arriver à des valeurs plus basses pour affiner la solution.
|
|
|
|
- $`d_j`$ : la sortie **désirée**.
|
|
|
|
- $`s_j`$ : la sortie **obtenue** pour l'**entrée courante**.
|
|
|
|
|
|
|
|
### Exemple d'apprentissage
|
|
|
|
|
|
|
|
### Exercices
|
| ... | ... | |
| ... | ... | |