Regresión Polinomial – Teoría

La Regresión Polinomial es un caso especial de la Regresión Lineal, extiende el modelo lineal al agregar predictores adicionales, obtenidos al elevar cada uno de los predictores originales a una potencia. Por ejemplo, una regresión cúbica utiliza tres variables, como predictores. Este enfoque proporciona una forma sencilla de proporcionar un ajuste no lineal a los datos.

El método estándar para extender la Regresión Lineal a una relación no lineal entre las variables dependientes e independientes, ha sido reemplazar el modelo lineal con una función polinomial.

Si observamos una regresión con 1 sola variable X1 la Regresión Lineal se verá así:

Regresión-Polinomial-teoría

Por su parte la Regresión Polinomial será así:

Regresión-Polinomial-teoría-1

Por su parte si observamos una regresión multivariable con 2 variables: X1 y X2, la Regresión Lineal se verá así:

Regresión-Polinomial-teoría-2

Ahora quieres tener una Regresión Polinomial está será la formula:

Regresión-Polinomial-teoría-3

Como se puede observar para la Regresión Polinomial se crean algunas características adicionales que no se encuentran en la Regresión Lineal.

Un término polinomial, bien sea cuadrático o cúbico, convierte un modelo de regresión lineal en una curva, pero como los datos de “X” son cuadráticos o cúbicos pero el coeficiente “b” no lo es, todavía se califican como un modelo lineal.

Esto hace que sea una forma agradable y directa de modelar curvas sin tener que modelar modelos complicados no lineales.

Un patrón común dentro de Machine Learning es usar modelos lineales entrenados en funciones no lineales de los datos. Este enfoque mantiene el rendimiento generalmente rápido de los métodos lineales mientras les permite ajustarse a un rango de datos mucho más amplio.

Al considerar los ajustes lineales dentro de un espacio de mayor dimensión construido con estas funciones básicas, el modelo tiene la flexibilidad de adaptarse a una gama de datos mucho más amplia.

Desafortunadamente, la Regresión Polinomial también tiene un buen número de problemas, a medida que aumentamos la complejidad de la fórmula, el número de características también aumenta, lo que a veces es difícil de manejar.

Además, la Regresión Polinomial tiene una tendencia a ajustarse drásticamente, incluso es un simple conjunto de datos unidimensional. Si bien podamos tener una tentación de ajustar un polinomio de mayor grado para obtener un error menos, esto puede resultar en un ajuste excesivo, por esa razón siempre se debe trazar las relaciones para ver el ajuste y concentrarnos de que la curva se ajuste a la naturaleza del problema.

Presta especial atención a la curva hacia los extremos y ve si las formas y tendencias tienen sentido, los polinomios superiores pueden terminar produciendo resultados extraños en la extrapolación.

Hay otros problemas con la Regresión Polinomial, por ejemplo, es inherentemente no local, es decir, cambiar el valor de “y” en un punto del conjunto de entrenamiento puede afectar el ajuste del polinomio para puntos de datos que están muy lejos. Por lo tanto, para evitar el uso de polinomios de alto grado en todo el conjunto de datos, podemos sustituirlo con muchas funciones de pequeño grado diferentes.

En conclusión, la Regresión Polinomial es muy similar a la Regresión Lineal, con una ligera desviación en la forma en que tratamos nuestro espacio de características.

3 thoughts on “Regresión Polinomial – Teoría”

  1. Hola.
    Tienes algún artículo de investigación donde resalten las desventajas de la regresión polinomial?

  2. Hola, no tengo algo como tal de ventajas y desventajas pero a lo largo de los contenidos de este algoritmos podrás encontrar info sobre esto.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *