| ... | ... | @@ -177,18 +177,29 @@ Par la suite, nous ne nous intéresserons qu'à la modélisation du *R-Unit*. En |
|
|
|
<br/><em>Modèle de R-Unit</em>
|
|
|
|
|
|
|
|
Le Perceptron se compose donc uniquement d'une cellule prenant $`n`$ entrées. Le neurone se déclenche au delà d'un seuil $`\theta`$ similairement au modèle de McCulloch et Pitts. La grande différence réside dans le fait que les entrées sont **pondérées**. Chaque entrée possède un poids modifiable qui nous servira à effectuer l'apprentissage. L'ensemble de ces poids forme la
|
|
|
|
**matrice d'interaction**. Ainsi au lieu d'effectuer la somme de ses entrées, le Perceptron réalise une **somme pondérée** $`\sum x_i w_i`$ des valeurs des entrées fois leurs poids respectifs. Si cette somme pondérée dépasse le seuil, le neurone s'active.
|
|
|
|
**matrice d'interaction**. Ainsi au lieu d'effectuer la somme de ses entrées, le Perceptron réalise une **somme pondérée** $`\sum x_i w_i`$ des valeurs des entrées fois leurs poids respectifs. Si cette somme pondérée dépasse le seuil, le neurone s'active (en d'autres termes, si la somme pondérée moins le seuil dépasse zéro on active le neurone).
|
|
|
|
|
|
|
|
Ainsi l'apprentissage se fait par modification de la matrice d'interaction $`w`$. Elle modélise l'action inhibitrice ou activatrice des synapses.
|
|
|
|
|
|
|
|
Mais il reste aussi à régler le seuil $`theta`$. En théorie cela modélise le moment où le neurone a reçu suffisamment de signaux en entrée et s'active. Ce seuil fait aussi partie de l'apprentissage, mais nous verrons qu'il est plus compliqué à modifier. Pour éviter de le traiter à part, nous pouvons modifier légèrement le modèle en transformant le seuil en une "fausse" entrée dont la valeur est toujours -1 mais qui possède une pondération $`w_0`$ qui va elle aussi évoluer avec les autres pondérations, on appelle cette entrée le Biais.
|
|
|
|
Mais il reste aussi à régler le seuil $`theta`$. En théorie cela modélise le moment où le neurone a reçu suffisamment de signaux en entrée et s'active. Ce seuil fait aussi partie de l'apprentissage, mais nous verrons qu'il est plus compliqué à modifier. Pour éviter de le traiter à part, nous pouvons modifier légèrement le modèle en transformant le seuil en une "fausse" entrée dont la valeur est toujours -1 mais qui possède une pondération $`w_0`$ qui va elle aussi évoluer avec les autres pondérations, on appelle cette entrée le Biais. On règle ensuite le seuil $`\theta`$ à zéro. Précédemment le seuil était retiré à la somme pondérée, et si le résultat dépassait 0 on activait le neurone. Ici ce seuil est remplacé par cette entrée négative qui va réaliser la même opération.
|
|
|
|
|
|
|
|

|
|
|
|
<br/><em>Modèle de R-Unit avec biais</em>
|
|
|
|
|
|
|
|
|
|
|
|
### Processus d'apprentissage
|
|
|
|
|
|
|
|
Mais comment modifier la matrice d'interactions pour effectuer l'apprentissage ? Le but consiste à configurer le Perceptron de façon à ce qu'il reconnaisse une ou plusieurs entrées particulières. La phase d'apprentissage va donc viser à **modifier progressivement les poids synaptiques** pour essayer d'obtenir une **sortie désirée** en fontion d'**entrées** ou en d'autres termes de **stimuli externes induisant ces changements**.
|
|
|
|
|
|
|
|
|
|
|
|
Il existe deux types d'apprentissages : *non supervisé* et *supervisé*.
|
|
|
|
|
|
|
|
- **Apprentissage non supervisé** : On ne connaît pas les sorties attendues. Cela est souvent utilisé pour agréger les données en fonction de régularités statistiques.
|
|
|
|
- **Apprentissage supervisé** : Pour des entrées données, on connaît les sorties. Cela permet de guider le réseau vers la solution recherchée.
|
|
|
|
|
|
|
|
Le Perceptron utilise un **apprentissage supervisé par renforcement.** En fonction de sorties attendues on modifie peu à peu la configuration pour obtenir ces sorties en fonction d'entrées connues.
|
|
|
|
|
|
|
|

|
|
|
|
|
|
|
|
### Exemple d'apprentissage
|
|
|
|
|
|
|
|
### Exercices
|
| ... | ... | |
| ... | ... | |