Home

Dans la dernière entrée nous avons réalisé un modèle de régression avec les réseaux de neurones. Aujourd’hui, je voulais vous montrer comment tracer le réseau neuronal créé sur cette entrée. Une modélisation de réseau de neurones a toujours reproché son comportement «boîte noire», nous avons passé une variable d’entrée par une couche cachée et une sortie nous obtenons. Il n’y a pas de paramètres et aucune conclusion à leur sujet, je ne sais pas ce que le réseau intérieur. Dans le cas de R et continue avec l’entrée précédente si l’on résumé (bestnn):

à 12-4-1 réseau avec 57 poids
avait des options – unités de sortie linéaire = 1e-05 désintégration
b-> h1 I1-> I2 h1> h1 I3-> i4- h1> h1 i5-> i6- h1> h1 i7 -> h1 i8-> i9- h1> h1
-5,61 -3,80 -1,03 0,74 -2,81 2,83 2,37 2,86 6,72 4,68
i10-> i11- h1> i12- h1> h1
1,65 0,87 -8,16
b-> I1- h2> h2 I2> I3 h2> h2 i4-> i5- h2> h2 i6-> i7- h2> h2 i8-> i9- h2> h2
12,05 -4,55 10,85 0,45 -0,35 -2,58 – 5.59 -1.73 1.13 -2.02
i10-> i11- h2> i12- h2> h2
-1.46 -4.31 3.18
b-> I1- h3> h3 I2> I3 h3> h3 i4-> i5- h3> h3> i6- i7- h3> i8- h3> i9- h3> h3
2,82 0,78 -0,03 0,03 -0,54 0,08 0,25 0,34 0,06 0,48
i10-> i11- h3> i12- h3> h3
0,20 0,12 0,09
b-> I1- h4> h4 I2 > I3- h4> i4- h4> i5- h4> i6- h4> h4> i7- i8- h4> i9- h4> h4
-11,34 -0,80 2,27 1,15 -4,63 0,05 1,52 -8,82 1,74 1,13
i10-> h4 i11- > i12- h4> h4
-0,60 -2,18 0,12
b-> ou H1> ou h2> ou H3-> ou h4> o
1,46 0,10 0,12 -1,26 0,61

Voilà (plus ou moins) ce qui est peint dans l’image ci-dessus. 12 noeuds d’entrée (entrée) ainsi que le biais (biais). Ensuite, nous avons 4 nœuds dans la couche cachée (hidden), dans ce cas, le biais ai besoin. Avec nnet nous ne pouvons rendre les réseaux avec une seule couche cachée. Et enfin une sortie (output) qui sont en train de faire une régression, pas une classification. Cette notation utilise toujours nnet b-> h1; I1-> h1, …, b-> o; .- h1> ou les poids du réseau de neurones. Ces poids feront paramètres de nos modèles, dans notre cas, nous 12-4-1 entrée cachée sortie 12×4 = 48 (i-> h) + 4 (b-> h) + 4 (b-> o) + 1 (b-> o) = 57 pesos.Avec un modèle 3-4-2 feriez 3×4 + 4 + 4 + 2 = 22 pesos. Pour l’interprétation de ces points de vente pour nous aider à mieux comprendre le comportement de nos variables prédictives d’entrée est un complexe à moins que vous effectuez la tâche de test graphique. Pour illustrer ce type de réseaux de neurones nécessairement à lire ceci:

http://beckmw.wordpress.com/2013/11/14/visualizing-neural-networks-in-r-update/

Un génie. De là, mes félicitations. OOOOOLE !!!

source(url(‘https://gist.githubusercontent.com/fawda123/7471137/raw/466c1474d0a505ff044412703516c34f1a4684a5/nnet_plot_update.r’))
plot.nnet(bestnn)

Et nous avons le graphique suivant:

Des lignes noires impliquent des poids positifs, plus de largeur de ligne plus de poids.Lignes grises impliquant des poids négatifs. Ce que nous pouvons changer:

plot.nnet (bestnn, pos.col = neg.col « bleu » = « red »)

Il a beaucoup de possibilités comme nous pouvons le voir dans le billet de blog. Le code est à portée de main:

plot.nnet node.labs = T = T var.labs, x.lab = NULL, y.lab = NULL, NULL line.stag = = NULL struct, cex.val = 1,
alpha.val = 1, circle.col = pos.col 'bleu clair' = 'noir', neg.col = 'gris', max.sp = F, ...) {

Comme je l’ai aime R.

Tags: ,

Publicités

Laisser un commentaire

Choisissez une méthode de connexion pour poster votre commentaire:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s