Programas de las materias

Estadística (M)

1. Análisis exploratorio de datos: Visualización y resumen de datos. Función de distribución empírica. Estimación no paramétrica de la densidad.

2. Estimación puntual: Estimación. Sesgo, varianza y Error Cuadrático Medio. Compromiso sesgo-varianza. Estimación plug-in utilizando el enfoque funcional. Estimación en modelos paramétricos: máxima verosimilitud, momentos, M y Z estimadores. Propiedades asintóticas: consistencia y distribución asintótica. Método delta.

3. Regiones de confianza: Intervalos de confianza para la media de una distribución normal con varianza conocida. Intervalos de confianza para la media de una distribución normal con varianza desconocida: Distribución t de Student. Intervalos de confianza de nivel asintótico basados en estadísticos asintóticamente normales.  Intervalo para proporciones. Intervalos de confianza para dos muestras.

4. Técnicas de remuestreo: Métodos Bootstrap para la estimación de la varianza de un estimador asintóticamente normal. Métodos Bootstrap para la estimación de la distribución de un estimador.  Intervalo de confianza Bootstrap: percentil y asintóticamente normal. Comparación con métodos clásicos. Bootstrap no paramétrico y paramétrico.

5. Tests de hipótesis: Presentación del problema de test de hipótesis. Hipótesis nula y alternativa. Tipos de errores. Nivel y potencia de un test. Valor "p". Test para la media de una población normal con varianzaconocida y con varianza desconocida. Tests de Wald (basados en estadísticos asintóticamente normales). Tests e intervalos de confianza para dos muestras. Relación entre tests e intervalos de confianza.  El problema de comparaciones múltiples o cubrimiento simultáneo.

6. Modelo lineal: Regresión lineal simple. Mínimos cuadrados. Supuestos. Inferencia para los parámetros del modelo: bajo normalidad yteoría asintótica.  Regresión lineal múltiple. Predicción.

7. Modelos de Regresión: Función de regresión. Estimación de la función de regresión. Estimadores no paramétricos: Nadaraya, kNN. Regresión no lineal.  Ajuste y sobreajuste. Métodos de regularización (Ridge, LASSO, etc). Técnicas y métricas de evaluación de modelos-métodos (validación cruzada, etc.)

8. Clasificación: La regla de Bayes. Regresión logística, estimación de parámetros por máxima verosimilitud. Modelos generativos:  LDA, QDA, Bayes Naive. Modelos discriminativos: kNN, clasificación logística. Técnicas y métricas de evaluación de modelos-métodos. Árboles de decisión.

 

BIBLIOGRAFIA

-Bickel, P.  J. y  Doksum. K. A. (2015). Mathematical Statistics: Basic Ideas and Selected Topics, Volume 1. 2da. Edición. Chapman and Hall.

-Dalgaard, P. (2008). Introductory statistics with R. Springer Science & Business Media.

-Hothorn, T., y Everitt, B. S. (2014). A handbook of statistical analyses using R. CRC press.

-James, G., Witten, D., Hastie, T. y Tibshirani, R. (2013). An introduction to statistical learning. New York: Springer.

-Lehmann, E. L. y G. Casella. (2003).  Theory of Point Estimation. 2da. Edición. Springer.

-Lock, R. H., Lock, P. F. y  Morgan, K. L. (2012). Statistics: Unlocking the power of data. Wiley Global Education.

-Rice, J. (2006). Mathematical statistics and data analysis. Nelson Education.

-Wasserman, L. (2004). All of Statistics: A Concise Course in Statistical Inference. Springer Science  &  Business Media.

-Wasserman, L. (2013). All of statistics: a concise course in statistical inference. Springer Science  &  Business Media.


CORRELATIVAS: Probabilidades y Estadística
 

Contacto

Departamento de Matemática
Pabellón I - Ciudad Universitaria
1428 - Buenos Aires REPÚBLICA ARGENTINA

  • dummy+54 (11) 5285-7618

  • dummy secre@dm.uba.ar

Search