preguntar acerca de gradient-descent
1
réponses
Sklearn SGDClassifier ajustement partiel
J'essaie D'utiliser SGD pour classer un grand ensemble de données. Comme les données sont trop volumineuses pour tenir dans la mémoire, je voudrais utiliser la méthode partial_fit pour former le classificateur. J'ai sélectionné un échantillon de l'en …
demandé sur
1970-01-01 00:33:34
2
réponses
Qu’est-ce que le paramètre méta` weight decay ‘ dans Caffe?
en regardant un exemple 'solver.prototxt' , posté sur BVLC / caffe git, il y a un méta-paramètre de formation
weight_decay: 0.04
que signifie ce paramètre meta? Et quelle valeur dois-je céder?
... …
demandé sur
1970-01-01 00:33:35
4
réponses
descente en pente à l’aide de python et de numpy
def gradient(X_norm,y,theta,alpha,m,n,num_it):
temp=np.array(np.zeros_like(theta,float))
for i in range(0,num_it):
h=np.dot(X_norm,theta)
#temp[j]=theta[j]-(alpha/m)*( np.sum( (h-y)*X_norm[:,j][np.newaxis,:] ) )
temp …
demandé sur
1970-01-01 00:33:33
4
réponses
pourquoi la descente par gradient quand nous pouvons résoudre la régression linéaire analytiquement
Quel est l'avantage d'utiliser le Gradient de descente dans l'espace de régression linéaire? on dirait que nous pouvons résoudre le problème (trouver theta0-n que le coût minimum func) avec la méthode analytique donc pourquoi nous voulons toujours ut …
demandé sur
1970-01-01 00:33:33