preguntar acerca de gradient-descent

1
réponses

Sklearn SGDClassifier ajustement partiel

J'essaie D'utiliser SGD pour classer un grand ensemble de données. Comme les données sont trop volumineuses pour tenir dans la mémoire, je voudrais utiliser la méthode partial_fit pour former le classificateur. J'ai sélectionné un échantillon de l'en …
demandé sur 1970-01-01 00:33:34
2
réponses

Qu’est-ce que le paramètre méta` weight decay ‘ dans Caffe?

en regardant un exemple 'solver.prototxt' , posté sur BVLC / caffe git, il y a un méta-paramètre de formation weight_decay: 0.04 que signifie ce paramètre meta? Et quelle valeur dois-je céder? ... …
demandé sur 1970-01-01 00:33:35
4
réponses

descente en pente à l’aide de python et de numpy

def gradient(X_norm,y,theta,alpha,m,n,num_it): temp=np.array(np.zeros_like(theta,float)) for i in range(0,num_it): h=np.dot(X_norm,theta) #temp[j]=theta[j]-(alpha/m)*( np.sum( (h-y)*X_norm[:,j][np.newaxis,:] ) ) temp …
demandé sur 1970-01-01 00:33:33
4
réponses

pourquoi la descente par gradient quand nous pouvons résoudre la régression linéaire analytiquement

Quel est l'avantage d'utiliser le Gradient de descente dans l'espace de régression linéaire? on dirait que nous pouvons résoudre le problème (trouver theta0-n que le coût minimum func) avec la méthode analytique donc pourquoi nous voulons toujours ut …
demandé sur 1970-01-01 00:33:33