Estadística matemática con aplicaciones / Dennis D. Wackerly, William Mendenhall, Richard L. Scheaffer.

Por: Colaborador(es): Idioma: Español Detalles de publicación: México : Thomson, 2002Edición: 6taDescripción: 853 pTipo de contenido:
  • texto
Tipo de medio:
  • sin mediación
Tipo de soporte:
  • volumen
ISBN:
  • 9706861947
Tema(s):
Contenidos:
Valoración
    Valoración media: 0.0 (0 votos)
Existencias
Tipo de ítem Biblioteca actual Signatura topográfica Estado Fecha de vencimiento Código de barras Reserva de ítems
Libro Libro Facultad Regional Santa Fe - Biblioteca "Rector Comodoro Ing. Jorge Omar Conca" 519.22 W112 (Navegar estantería(Abre debajo)) Sólo Consulta 8572
Total de reservas: 0

CONTENIDO
Prefacio
Comentarios al estudiante
1 ¿Qué es la estadística?
1.1 Introducción
1.2 Descripción de un conjunto de mediciones: métodos gráficos
1.3 Descripción de un conjunto de mediciones: métodos numéricos
1.4 Cómo se hacen las inferencias
1.5 Teoría y práctica
1.6 Resumen
2 Probabilidad
2.1 Introducción
2.2 Probabilidad e inferencia
2.3 Repaso de notación de conjuntos
2.4 Modelo probabilístico de un experimento: el caso discreto
2.5 Cálculo de la probabilidad de un evento: método de los puntos muestrales
2.6 Herramientas para contar puntos muestrales
2.7 Probabilidad condicional e independencia de eventos
2.8 Dos leyes de la probabilidad
2.9 Cálculo de la probabilidad de un evento: método de la composición de eventos
2.10 Ley de la probabilidad total y regla de Bayes
2.11 Eventos numéricos y variables aleatorias
2.12 Muestreo aleatorio
2.13 Resumen
3 Variables aleatorias discretas y sus distribuciones de probabilidad
3.1 Definición
3.2 Distribución de probabilidad de una variable aleatoria discreta
3.3 Valor esperado de una variable aleatoria o de una función de una variable aleatoria
3.4 Distribución de probabilidad binomial
3.5 Distribución de probabilidad geométrica
3.6 Distribución de probabilidad binomial negativa (opcional)
3.7 Distribución de probabilidad hipergeométrica
3.8 Distribución de probabilidad de Poisson
3.9 Momentos y funciones generadoras de momentos
3.10 Funciones generadoras de probabilidades (opcional)
3.11 Teorema de Chebyshev
3.12 Resumen
4 Variables aleatorias continuas y sus distribuciones de probabilidad
4.1 Introducción
4.2 Distribución de probabilidad de una variable aleatoria continua
4.3 Valor esperado de una variable aleatoria continua
4.4 Distribución de probabilidad uniforme
4.5 Distribución de probabilidad normal
4.6 Distribución de probabilidad gamma
4.7 Distribución de probabilidad beta
4.8 Algunos comentarios generales
4.9 Otros valores esperados
4.10 Teorema de Chebyshev
4.11 Valores esperados de funciones discontinuas y distribuciones mixtas de probabilidad (opcional)
4.12 Resumen
5 Distribuciones de probabilidad multivariables
5.1 Introducción
5.2 Distribuciones de probabilidad multivariable y bivariable
5.3 Distribuciones de probabilidad marginal y condicional
5.4 Variables aleatorias independientes
5.5 Valor esperado de una función de variables aleatorias
5.6 Teoremas especiales
5.7 Covarianza de dos variables aleatorias
5.8 Valor esperado y varianza de funciones lineales de variables aleatorias
5.9 Distribución de probabilidad multinomial
5.10 Distribución normal bivariable (opcional)
5.11 Esperanzas matemáticas condicionales
5.12 Resumen
6 Funciones de variables aleatorias
6.1 Introducción
6.2 Determinación de la distribución de probabilidad de una función de variables aleatorias
6.3 Método de las funciones de distribución
6.4 Método de las transformaciones
6.5 Método de las funciones generadoras de momentos
6.6 Transformaciones multivariadas con jacobianos (opcional)
6.7 Estadísticos de orden
6.8 Resumen
7 Distribuciones muestrales en el teorema del límite central
7.1 Introducción
7.2 Distribuciones muestrales relacionadas con la distribución normal
7.3 Teorema del límite central
7.4 Demostración del teorema del límite central (opcional)
7.5 Aproximación normal a la distribución binomial
7.6 Resumen
8 Estimación
8.1 Introducción
8.2 Sesgo y media del cuadrado del error de estimadores puntuales
8.3 Algunos estimadores puntuales insesgados comunes
8.4 Evaluación de la bondad de un estimador puntual
8.5 Intervalos de confianza
8.6 Intervalos de confianza con muestras grandes
8.7 Selección del tamaño de la muestra
8.8 Intervalos de confianza con muestras pequeñas para mu y mu1 - mu2
8.9 Intervalos de confianza para sigma 2
8.10 Resumen
9. Propiedades de los estimadores puntuales y métodos de estimación
9.1 Introducción
9.2 Eficiencia relativa
9.3 Consistencia
9.4 Suficiencia
9.5 Teorema de Rao-Blackwell y estimación insesgada con varianza mínima
9.6 Método de los momentos
9.7 Método de máxima verosimilitud
9.8 Algunas propiedades de los estimadores de máxima verosimilitud con muestras grandes (opcional)
9.9 Resumen
10 Pruebas de hipótesis
10.1 Introducción
10.2 Elementos de una prueba estadística
10.3 Pruebas comunes con muestras grandes
10.4 Cálculo de las probabilidades del error tipo II y determinación del tamaño de la muestra para la prueba Z
10.5 Relaciones entre los procedimientos de pruebas de hipótesis e intervalos de confianza
10.6 Otra forma de informar los resultados de una prueba estadística: niveles de significancia alcanzados o valores p
10.7 Algunos comentarios respecto a la teoría de la prueba de hipótesis
10.8 Prueba de hipótesis con muestras pequeñas para mu y mu 1 - mu 2
10.9 Pruebas de hipótesis referentes a varianzas
10.10 Potencia de las pruebas y el lema de Neyman-Pearson
10.11 Pruebas de la razón de verosimilitud
10.12 Resumen
11 Modelos lineales y estimación mediante mínimos cuadrados
11.1 Introducción
11.2 Modelos estadísticos lineales
11.3 Método de los mínimos cuadrados
11.4 Propiedades de los estimadores de mínimos cuadrados: regresión lineal simple
11.5 Inferencias respecto a los parámetros beta i
11.6 Inferencias referentes a funciones lineales de parámetros del modelo: regresión lineal simple
11.7 Predicción de un valor particular de Y mediante regresión lineal simple
11.8 Correlación
11.9 Ejemplos prácticos
11.10 Ajuste del modelo lineal mediante matrices
11.11 Funciones lineales de los parámetros del modelo: regresión lineal múltiple
11.12 Inferencias referentes a funciones lineales de los parámetros del modelo: regresión lineal múltiple
11.13 Predicción de un valor particular de Y mediante regresión múltiple
11.14 Una prueba para H0: beta g + 2
11.15 Resumen
12 Consideraciones sobre el diseño de experimentos
12.1 Elementos que afectan la información en una muestra
12.2 Diseño de experimentos para mejorar la exactitud
12.3 Experimento de los pares comparados
12.4 Algunos diseños experimantales elementales
12.5 Resumen
13 Análisis de varianza
13.1 Introducción
13.2 Análisis del procedimiento de varianza
13.3 Comparación de más de dos medias: análisis de varianza para un diseño de un factor
13.4 Tabla de análisis de varianza para un diseño de un factor
13.5 Modelo estadístico para el diseño de un factor
13.6 Prueba de aditividad de las sumas de los cuadrados y valor esperado del cuadrado medio del tratamiento para un diseño de un factor (opcional)
13.7 Estimación en un diseño de un factor
13.8 Modelo estadístico para el diseño de bloques aleatorizado
13.9 Análisis de varianza para un diseño de bloques aleatorizado
13.10 Estimación en el diseño de bloques aleatorizado
13.11 Selección del tamaño de la muestra
13.12 Intervalos de confianza simultáneos para más de un parámetro
13.13 Análisis de varianza con modelos lineales
13.14 Resumen
14 Análisis de datos enumerativos
14.1 Descripción del experimento
14.2 Prueba ji-cuadrada
14.3 Prueba de una hipótesis relacionada con probabilidades especificadas para las celdas: prueba de la bondad del ajuste
14.4 Tablas de contingencia
14.5 Tablas r X c con totales fijos de renglón o de columna
14.6 Otras aplicaciones
14.7 Resumen
15 Estadística no paramétrica
15.1 Introducción
15.2 Modelo general de desplazamiento de dos muestras
15.3 Prueba de los signos para un experimento de pares comparados
15.4 Prueba de rangos con signo de Wilcoxon para un experimento de pares comparados
15.5 Uso de rangos para comparar dos distribuciones de población: muestras aleatorias independientes
15.6 Prueba U de Mann-Whitney: muestras aleatorias independientes
15.7 Prueba de Kruskal-Wallis para un modelo de un factor
15.8 Prueba de Friedman para diseños de bloques aleatorizados
15.9 Prueba de rachas: una prueba de aleatoriedad
15.10 Coeficiente de correlación de rangos
15.11 Comentarios generales sobre las pruebas estadísticas no paramétricas
Apéndice 1 Matrices y otros resultados matemáticos útiles
A1.1 Matrices y álgebra matricial
A1.2 Suma de matrices
A1.3 Multiplicación de una matriz por un número real
A1.4 Multiplicación de matrices
A1.5 Elementos identidad
A1.6 Inversa de una matriz
A1.7 Traspuesta de una matriz
A1.8 Expresión matricial de un sistema de ecuaciones lineales simultáneas
A1.9 Inversión de una matriz
A1.10 Solución de un sistema de ecuaciones lineales simultáneas
A1.11 Otros resultados matemáticos útiles
Apéndice 2 Distribuciones de probabilidad medias, varianzas y funciones generadoras de momentos comunes
A2.1 Distribuciones discretas
A2.2 Distribuciones continuas
Apéndice 3 Tablas
Tabla 1 Probabilidades binomiales
Tabla 2 Tabla de e (-x)
Tabla 3 Probabilidades de Poisson
Tabla 4 Áreas bajo la curva normal
Tabla 5 Puntos porcentuales de las distribuciones t
Tabla 6 Puntos porcentuales de las distribuciones X (2)
Tabla 7 Puntos porcentuales de las distribuciones F
Tabla 8 Función de distribución de U
Tabla 9 Valores críticos de T en la prueba de rangos con signo de Wilcoxon de pares comparados n
Tabla 10 Distribución del número total de rachas R en muestras de tamaño (n1, n2); P (R menor/igual a)
Tabla 11 Valores críticos del coeficiente de correlación de rangos de Spearman
Tabla 12 Números aleatorios Respuestas a los ejercicios
Indice

No hay comentarios en este titulo.

para colocar un comentario.