¿Qué es el descenso de gradiente?

El descenso de gradiente es un algoritmo de optimización iterativo que se usa comúnmente para minimizar una función de costo o pérdida en modelos de aprendizaje automático. Funciona calculando el gradiente (pendiente) de la función de costo en un punto particular en el espacio de decisión y luego dando un paso en la dirección del gradiente negativo (dirección opuesta al ascenso más pronunciado). Este proceso se repite hasta que se alcanza un mínimo global de la función, o hasta que el algoritmo converge a algún otro criterio de parada. La tasa de aprendizaje (tamaño de paso) determina el tamaño de los pasos tomados en cada iteración, y debe elegirse cuidadosamente para asegurar la convergencia al mínimo global. El descenso de gradiente es un elemento clave en muchos algoritmos populares de aprendizaje automático, como la regresión lineal, la regresión logística y las redes neuronales artificiales.

Fecha de publicación: