The perceptron

Abbiamo visto come reti di neuroni McCulloch-Pitts neuron siano universali, ovvero riescono a rappresentare ogni funzione binaria . Quindi data una funzione, riesco a trovare i parametri dei neuroni tali che la rete replichi perfettamente la funzione.

Ci poniamo ora il problema dell’apprendimento, ovvero come trovare i pesi “migliori” data una conoscenza parziale della funzione .

Online learning

Supponiamo di avere una rete “Maestro” ed una “Studente”, l’obbiettivo è passare la conoscenza perfetta di del maestro allo studente, che all’inizio ha pesi random.

La procedura detta online training:

  1. Si sceglie random una domanda
  2. Si confrontano le risposte:
  • Se ok
  • Se si aggiornano i pesi dello studente con una certa regola

La questione ora è capire quale regola e usare:

The Perceptron learning rule

A perceptron is defined as a MP neuron which learns according to the following rule for updating its parameters:

  • e : e
  • e : e

La regola è molto semplice: se lo studente ha risposto invece che , devo abbassare l’argomento della funzione theta, chiamato local field :

nel caso opposto, lo incremente.

Teorema convergenza della regola

Se il task è linearmente separabile, allora la procedura converge in un numero finito di passi ad una configurazione stazionaria dove .