Evans, Michael J.

Probabilidad y estadística / Michael J. Evans, Jeffrey S. Rosenthal. - Barcelona : Reverté, 2005 - 758 p.

CONTENIDO
Prólogo
1. Modelos de probabilidad
1.1. Probabilidad: Una medida de la incertidumbre
1.1.1. ¿Por qué necesitamos una teoría de la probabilidad?
1.2. Modelos de probabilidad
1.2.1. Diagramas de Venn y subconjuntos
1.3. Propiedades de los modelos de probabilidad
1.4. La probabilidad uniforme en espacios finitos
1.4.1. Principios de combinatoria
1.5. Probabilidad condicional e independencia
1.5.1. Probabilidad condicional
1.5.2. Sucesos independientes
1.6. Continuidad de P
1.7. Demostraciones adicionales (avanzadas)
2. Variables aleatorias y distribuciones
2.1. Variables aleatorias
2.2. Distribuciones de variables aleatorias
2.3. Distribuciones discretas
2.3.1. Principales distribuciones discretas
2.4. Distribuciones continuas
2.4.1. Principales distribuciones totalmente continuas
2.5. Funciones de probabilidad acumulada
2.5.1. Propiedades de las funciones de distribución
2.5.2. Funciones de distribución acumulada de distribuciones discretas
2.5.3. Funciones de distribución acumulada de distribuciones totalmente continuas
2.5.4. Distribuciones mixtas
2.5.5. Distribuciones ni discretas ni continuas
2.6. Cambios de variable unidimensionales
2.6.1. El caso discreto
2.6.2. El caso continuo
2.7. Distribuciones conjuntas
2.7.1. Funciones de distribución conjunta acumulada
2.7.2. Distribuciones marginales
2.7.3. Funciones de probabilidad conjunta
2.7.4. Funciones de densidad conjunta
2.8. Condicionamiento e independencia
2.8.1. Condicionamiento de variables aleatorias discretas
2.8.2. Condicionamiento de variables aleatorias continuas
2.8.3. Independencia de variables aleatorias
2.8.4. Parámetros estadísticos de orden
2.9. Cambios de variable multidimensionales
2.9.1. El caso discreto
2.9.2. El caso continuo (avanzado)
2.9.3. Convolución
2.10. Simulación de distribuciones de probabilidad
2.10.1. Simulación de distribuciones discretas
2.10.2. Simulación de distribuciones continuas
2.11. Demostraciones adicionales (avanzadas)
3. Valores esperados
3.1. El caso discreto
3.2. El caso totalmente continuo
3.3. Varianza, covarianza y correlación
3.4. Funciones generatrices
3.4.1. Funciones características (avanzado)
3.5. Valor esperado condicional
3.5.1. El caso discreto
3.5.2. El caso totalmente continuo
3.5.3. Valor esperado doble
3.5.4. Varianza condicional (avanzado)
3.6. Desigualdades
3.6.1. Desigualdad de Jensen (avanzado)
3.7. Valores esperados generales (avanzado)
3.8. Demostraciones adicionales (avanzado)
4. Distribuciones muestrales y límites
4.1. Distribuciones muestrales
4.2. Convergencia en probabilidad
4.2.1. La ley débil de los grandes números
4.3. Convergencia con probabilidad unidad
4.3.1. La ley fuerte de los grandes números
4.4. Convergencia en distribución
4.4.1. El teorema del límite central
4.4.2. El teorema del límite central y la evaluación del error
4.5. Aproximaciones por Montecarlo
4.6. Teoría de la distribución normal
4.6.1. La distribución de Ji cuadrado
4.6.2. La distribución de t
4.6.3. La distribución de F
4.7. Demostraciones adicionales (avanzado)
5. Inferencia estadística
5.1. ¿Por qué necesitamos la Estadística?
5.2. Inferencia utilizando un modelo de probabilidad
5.3. Modelos estadísticos
5.4. Obtención de datos
5.4.1. Poblaciones finitas
5.4.2. Muestreo aleatorio simple
5.4.3. Histogramas
5.4.4. Inspección por muestreo o encuesta
5.5. Algunas inferencias básicas
5.5.1. Estadística descriptiva
5.5.2. Representación gráfica de los datos
5.5.3. Tipos de inferencia
6. Inferencia basada en la verosimilitud
6.1. La función de verosimilitud
6.1.1. Suficiencia de un parámetro estadístico
6.2. Estimación máximo verosímil
6.2.1. El caso multidimensional (avanzado)
6.3. Inferencias basadas en el MLE
6.3.1. Errores estándar y sesgo
6.3.2. Intervalos de confianza
6.3.3. Pruebas de hipótesis y valores P
6.3.4. Determinación del tamaño de muestra: Intervalos de confianza
6.3.5. Determinación del tamaño de muestra: Potencia de una prueba
6.4. Métodos de distribución libre
6.4.1. Método de los momentos
6.4.2. Técnica de bootstrap ("bootstrapping")
6.4.3. La prueba del signo e inferencias sobre cuarteles
6.5. Comportamiento de los MLE con grandes muestras (avanzado)
7. Inferencia Bayesiana
7.1. Distribución previa (a priori) y posterior (a posteriori)
7.2. Inferencias basadas en la distribución posterior
7.2.1. Estimación
7.2.2. Intervalos plausibles
7.2.3. Pruebas de hipótesis y factores de Bayes
7.2.4. Predicción
7.3. Cálculos bayesianos
7.3.1. Normalidad asintótica de la distribución posterior
7.3.2. Muestreo de la distribución posterior
7.3.3. Muestreo de la distribución posterior utilizando el muestreo de Gibbs (avanzado)
7.4. Selección de la distribución previa
7.5. Demostraciones adicionales (avanzado)
8. Inferencias óptimas
8.1. Estimación óptima insesgada
8.1.1. Desigualdad de Cramer-Rao (avanzado)
8.2. Pruebas de hipótesis óptimas
8.2.1. Pruebas de relación de verosimilitudes (avanzado)
8.3. Inferencias bayesianas óptimas
8.4. Teoría de la decisión (avanzado)
8.5. Demostraciones adicionales (avanzado)
9. Verificación de modelos
9.1. Verificación del modelo muestral
9.1.1. Gráficos de residuales y de probabilidad
9.1.2. Prueba de Ji cuadrado para la bondad de un ajuste
9.1.3. Predicción y validación cruzada
9.1.4. ¿Qué hacer cuando el modelo falla?
9.2. Verificación del modelo bayesiano
9.3. El problema de verificaciones múltiples
10. Relaciones entre variables
10.1. Variables relacionadas
10.1.1. Relaciones causa-efecto y experimentación
10.1.2. Diseño de experimentos
10.2. Variables respuesta y predictoras categóricas
10.2.1. Variable predictora aleatoria
10.2.2. Variable predictora determinista
10.2.3. Formulación bayesiana
10.3. Variables respuesta y predictoras cuantitativas
10.3.1. El método de mínimos cuadrados
10.3.2. El modelo de regresión lineal simple
10.3.3. Modelo bayesiano de regresión lineal simple (avanzado)
10.3.4. Modelo de regresión lineal múltiple (avanzado)
10.4. Respuesta cuantitativa y variables predictoras categóricas
10.4.1. Una variable predictora categórica (ANOVA de un factor)
10.4.2. Medidas repetidas (comparaciones apareadas)
10.4.3. Dos variables predictoras categóricas (ANOVA de dos factores)
10.4.4. Bloques aleatorizados
10.4.5. Una variable predictora categórica y una cuantitativa
10.5. Respuesta categórica y variables predictoras cuantitativas
10.6. Otras pruebas (avanzado)
11. Procesos estocásticos (Tema avanzado)
11.1. Paseo aleatorio simple
11.1.1. La distribución de la fortuna
11.1.2. El problema de la ruina del jugador
11.2. Cadenas de Markov
11.2.1. Ejemplos de cadenas de Markov
11.2.2. Cálculos con cadenas de Markov
11.2.3. Distribuciones estacionarias
11.2.4. Teorema del límite de una cadena de Markov
11.3. Cadenas de Markov y método de Montecarlo
11.3.1. Algoritmo Metropolis-Hastings
11.3.2. El muestreador de Gibas
11.4. Martingalas
11.4.1. Definición de una martingala
11.4.2. Valores esperados
11.4.3. Tiempo de paro
11.5. Movimiento browniano
11.5.1. Paseos aleatorios cada vez más rápidos
11.5.2. El movimiento browniano como un límite
11.5.3. Procesos de difusión y precios de los stocks
11.6. Procesos de Poisson
11.7. Demostraciones
Apéndices
A. Fundamentos matemáticos
A.1. Derivadas
A.2. Integrales
A.3. Series infinitas
A.4. Producto matricial
A.5. Derivadas parciales
A.6. Integrales múltiples
A.6.1. Regiones no rectangulares
B. Cálculos con ordenador
C. Distribuciones más frecuentes
C.1. Distribuciones discretas
C.2. Distribuciones totalmente continuas
D. Tablas
D.1. Números aleatorios
D.2. Función de distribución acumulada (fda) Normal Estándar
D.3. Percentiles de la distribución de Ji cuadrado
D.4. Percentiles de la distribución t
D.5. Percentiles de la distribución F
D.6. Probabilidades de la distribución binomial

842915034X


PROBABILIDAD
ESTADISTICA
MODELOS DE PROBABILIDAD
INFERENCIA ESTADISTICA
INFERENCIA BAYESIANA
PROCESOS ESTOCASTICOS

519.2 EV16