Regresión Lineal & Logarítmica

Aprende de forma interactiva las fórmulas, conceptos y aplicaciones de la regresión lineal y logarítmica con demostraciones en tiempo real

Fórmulas Interactivas Gráficas Dinámicas Código Python

Regresión Lineal Simple

La regresión lineal es una técnica estadística que busca modelar la relación entre una variable dependiente y una o más variables independientes mediante una línea recta.

Fórmula General
Y = β₀ + β₁X + ε

Variables y Parámetros:

Y = Variable dependiente (respuesta)
Lo que queremos predecir o explicar
X = Variable independiente (predictor)
La variable que usamos para hacer la predicción
β₀ = Intercepto (ordenada al origen)
Valor de Y cuando X = 0
β₁ = Pendiente (coeficiente de regresión)
Cambio en Y por cada unidad de cambio en X
ε = Error aleatorio (residuo)
Diferencia entre valor real y predicho
Demostración Interactiva

Ajusta los parámetros y observa cómo cambia la línea de regresión:

Intercepto (β₀) 5
Pendiente (β₁) 2
Gráfica Interactiva de Regresión Lineal

Los puntos azules son datos de muestra, la línea roja es tu regresión

Ecuación Actual:
Y = 5 + 2X

¿Para qué sirve?

import numpy as np import matplotlib.pyplot as plt from sklearn.linear_model import LinearRegression # Datos de ejemplo X = np.array([[1], [2], [3], [4], [5]]) y = np.array([2, 4, 6, 8, 10]) # Crear y entrenar el modelo modelo = LinearRegression() modelo.fit(X, y) # Hacer predicciones y_pred = modelo.predict(X) print(f"Intercepto: {modelo.intercept_}") print(f"Pendiente: {modelo.coef_[0]}")

Regresión Logarítmica

La regresión logarítmica se usa cuando la relación entre variables no es lineal sino exponencial o cuando queremos reducir la variabilidad de los datos.

Modelo Log-Lineal
log(Y) = β₀ + β₁X + ε

Interpretación: Y crece exponencialmente con X

Modelo Log-Log
log(Y) = β₀ + β₁log(X) + ε

Interpretación: Elasticidad constante entre Y y X

Transformación Logarítmica:

log(Y) = Variable dependiente transformada
Logaritmo natural de Y
log(X) = Variable independiente transformada
Logaritmo natural de X
β₁ = Elasticidad
% cambio en Y por % cambio en X
Comparación Visual

Observa la diferencia entre regresión lineal y logarítmica:

Comparación: Lineal vs Logarítmica

Azul: datos reales, Rojo: regresión lineal, Verde: regresión logarítmica

¿Cuándo usar regresión logarítmica?

import numpy as np from sklearn.linear_model import LinearRegression # Datos con crecimiento exponencial X = np.array([[1], [2], [3], [4], [5]]) y = np.array([2, 7, 20, 55, 148]) # Crecimiento exponencial # Transformación logarítmica log_y = np.log(y) # Regresión con datos transformados modelo_log = LinearRegression() modelo_log.fit(X, log_y) # Para predecir, hay que aplicar la transformación inversa log_pred = modelo_log.predict(X) y_pred = np.exp(log_pred) print(f"Modelo logarítmico - R²: {modelo_log.score(X, log_y):.3f}")

Comparación de Modelos

Aspecto Regresión Lineal Regresión Logarítmica
Fórmula Y = β₀ + β₁X + ε log(Y) = β₀ + β₁log(X) + ε
Tipo de relación Lineal (aditiva) Exponencial (multiplicativa)
Interpretación β₁ Cambio absoluto en Y por unidad de X % cambio en Y por % cambio en X
Mejor para Relaciones lineales, datos homogéneos Crecimiento exponencial, datos heterogéneos
Ejemplo Temperatura vs consumo energético Área vs precio de vivienda
Ejemplo Práctico: Precio de Viviendas
log(Precio) = 10.5 + 0.8 log(Área)

Interpretación: Un aumento del 1% en el área se asocia con un aumento del 0.8% en el precio.

Modelo Equivalente
Precio = e^10.5 × Área^0.8

Interpretación: Relación de potencia entre precio y área con elasticidad constante de 0.8.

Precio = e^10.5 × Área^0.8

Interpretación: Relación de potencia entre precio y área con elasticidad constante de 0.8.