Qu'est-ce que "naïf" dans un classificateur Bayes naïf?

Qu'est-ce qui est naïf à propos de naïf Bayes?

28
demandé sur Martin Thoma 2012-05-16 12:32:04

4 réponses

Il y a en fait un très bon exemple sur Wikipedia :

En termes simples, un classificateur Bayes naïf suppose que la présence (ou l'absence) d'une caractéristique particulière d'une classe n'est pas liée à la présence (ou l'absence) de toute autre caractéristique, étant donné la variable de classe. Par exemple, un fruit peut être considéré comme une pomme s'il est Rouge, rond et d'environ 4" de diamètre. Même si ces caractéristiques dépendent les unes des autres ou de l'existence des autres caractéristiques, un Bayes naïf Classificateur considère toutes ces propriétés pour contribuer indépendamment à la probabilité que ce fruit est une pomme.

Fondamentalement, c'est" naïf " parce qu'il fait des hypothèses qui peuvent ou non s'avérer correctes.

40
répondu this.lau_ 2012-05-16 08:35:02

Si vos données sont composées D'un vecteur d'entités X = {x1, x2,... x10} et vos étiquettes de classe Y = {y1, Y2,.. y5}. Ainsi, un classificateur Bayes identifie l'étiquette de classe correcte comme celle qui maximise la formule suivante:

P(y/X) = P(X/y) * P(y) = P(x1,x2, ... x10/ a) * P(y)

Donc pour, ce n'est toujours pas naïf. Cependant, il est difficile de calculer P(x1,x2, ... x10/ Y), donc nous supposons que les caractéristiques d'être indépendant, c'est ce que nous appelons l'hypothèse Naïve, par conséquent, nous nous retrouvons avec la formule suivante à la place

P(y/X) = P(x1/y) * P(x2/y) * ... P(x10/a) * P(y)

8
répondu gr33ndata 2013-08-28 19:44:01

On l'appelle naïf car il suppose que tous les attributs sont indépendants les uns des autres. Cette hypothèse est la raison pour laquelle il est appelé naïf comme dans beaucoup de situations du monde réel, cela ne correspond pas. Malgré cela, le classificateur fonctionne extrêmement bien dans de nombreuses situations du monde réel et a des performances comparables à celles des réseaux neutres et des SVM dans certains cas (mais pas tous).

4
répondu user3664740 2014-05-22 11:09:09

Pour la classification lorsque nous trouvons la distribution conjointe, le problème est qu'elle ne fait que refléter les données d'entraînement et qu'elle est également très difficile à calculer. Nous avons donc besoin de quelque chose qui généralise plus utilement.

Le modèle naïf généralise fortement que chaque attribut est distribué indépendamment de tout autre attribut.

Cela aide vraiment à ne pas se soucier de la dépendance parmi les attributs dans une large mesure.

1
répondu Nicky 2015-09-15 20:46:24