Análisis de datos. Métodos y ejemplos

Análisis de datos. Métodos y ejemplos

Este libro está dirigido en especial a estudiantes de ingeniería, de maestría en matemáticas aplicadas, informática, ciencias económicas y gestión, así como a investigadores, profesores e ingenieros, que cuentan con importantes bases de datos de donde deben extraer información sintética necesaria para la toma de decisiones.De manera más amplia, lo pueden utilizar estadísticos, administradores y toda persona que posea conocimientos elementales en estadística, con habilidad para visualizar una representación geométrica en un espacio dado y con deseos de comprender los fundamentos de los métodos disponibles en los programas estadísticos a los que se tiene acceso actualmente.De manera más amplia, lo pueden utilizar estadísticos, administradores y toda persona que posea conocimientos elementales en estadística, con habilidad para visualizar una representación geométrica en un espacio dado y con deseos de comprender los fundamentos de los métodos disponibles en los programas estadísticos a los que se tiene acceso actualmente.
1. Análisis en componentes principales
1.1. Datos, nubes asociadas, métricas
1.2. Análisis de la nube de los individuos
1.2.1. Búsqueda del punto de Rp más cercano a N
1.2.2. Cálculo de Ig, inercia de N en relación con su centro
de gravedad 1.2.3. Búsqueda del subespacio de dimensión q más cercano a la nube N
1.2.4. Búsqueda del primer eje factorial
1.2.5. Búsqueda del plano P, del subespacio Wq, más cercano a N
1.2.6. Conclusión
1.2.7. Calidad de representación de los individuos y contribución de un individuo a la construcción de un eje
1.3. Análisis de la nube de variables
1.3.1. Componentes principales
1.3.2. Correlación entre variables; calidad de representación
1.4. Individuos y variables suplementarias
1.4.1. Individuos suplementarios (ilustrativos)
1.4.2. Variables suplementarias (ilustrativas)
1.4.3. Variables suplementarias cualitativas (ilustrativas)
1.5. Esquema de dualidad asociado a un ACP
1.6. ACP del archivo obs.sba con SPADR

2. Análisis factorial de correspondencias
2.1. Estudio de la variable cualitativa “pertenencia a un departamento”
2.1.1. Notaciones
2.1.2. Estudio desde el punto de vista del ACP
2.2. Estudio de la variable cualitativa “voto por un candidato”
2.2.1. Notaciones
2.2.2. Relaciones entre valores y vectores propios de S y S′
2.3. Relaciones pseudobaricéntricas
2.3.1. Las fórmulas
2.3.2. Representación simultánea de las dos nubes
2.3.3. Aplicación: pertenencia de los valores propios al intervalo [0, 1]
2.4. AFC del archivo colores.sba con SPADR

3. Análisis de correspondencias múltiples
3.1. Notaciones
3.2. Estudio del caso general con Q preguntas
3.2.1. Análisis de Z
3.2.2. Análisis de la tabla de Burt, B
3.2.3. Comparación de los valores propios y de los vectores propios en los análisis precedentes
3.3. Propiedades del análisis de correspondencias múltiples
3.3.1. Inercia de una modalidad, inercia de una pregunta
3.3.2. Soporte de la nube M de las modalidades
3.3.3. Nubes de Jq modalidades de una pregunta q
3.3.4. Representación simultánea de los individuos y de las modalidades
3.4. ACM del archivo perros.sba con SPADR

4. Métodos de clasificación
4.1. Semejanza y espacio de clasificación
4.1.1. Medidas de proximidad sobre un conjunto
4.1.2. Particiones de un conjunto
4.1.3. Cadenas de particiones y ultramétrica
4.1.4. Jerarquía total de las partes de un conjunto
4.2. Métodos de clasificación jerárquica
4.2.1. Ultramétrica asociada a una jerarquía indexada
4.2.2. Jerarquía indexada asociada a una ultramétrica
4.2.3. Jerarquía indexada H y disimilaridad sobre E
4.2.4. Métodos aglomerativos de clasificación jerárquica
4.3. Métodos de tipo Nubes Dinámicas
4.3.1. Algoritmo de Forgy (1965)
4.3.2. Algoritmo de MacQueen (1967)
4.3.3. Algoritmo de las Nubes Dinámicas de Diday (1971)
4.3.4. Formas fuertes
4.4. Observaciones finales sobre los métodos
4.5. Clasificación de los países con SPADR
4.6. Clasificación de los adjetivos con SPADR
4.7. Clasificación de los perros con SPADR

5. Análisis discriminante
5.1. Generalidades
5.1.1. Nociones básicas
5.1.2. Discriminación con objetivo descriptivo
5.1.3. Discriminación con objetivo decisional
5.2. Aspecto geométrico de la discriminación lineal
5.2.1. Datos y notaciones
5.2.2. Análisis factorial discriminante lineal
5.3. Aspecto probabilístico en análisis discriminante
5.3.1. Regla de asignación bayesiana
5.3.2. Pruebas de hipótesis en el caso del modelo normal
5.4. Procedimientos de paso a paso
5.4.1. Método de Sebestyen
5.4.2. Lambda de Wilk
5.4.3. Distancia de Mahalanobis
5.5. Calidad de las reglas de asignación
5.5.1. Tasa teórica de error de asignación para dos grupos
5.5.2. Métodos de evaluación de la calidad de una regla
5.6. Estudio del archivo credit.sba con SPADR

6. Métodos de segmentación
6.1. Método CART
6.1.1. Introducción
6.1.2. Construcción del árbol Am´ax
6.1.3. Poda del árbol Am´ax
6.1.4. Método de la muestra test
6.1.5. Método de validación cruzada
6.2. Estudio por el método CART del archivo Almacén.sba
6.2.1. Construcción del árbol Am´ax
6.2.2. Construcción de la sucesión de subárboles
6.2.3. Elección del subárbol óptimo
6.2.4. Evaluación de la regla de decisión
6.3. Método CHAID

7. Regresión lineal simple 249
7.1. Aspectos descriptivos de la regresión
7.1.1. Recta de mínimos cuadrados
7.1.2. Calidad del ajuste
7.1.3. Coeficiente de determinación
7.1.4. Apalancamiento
7.1.5. Residuos, residuos estimados, PRESS
7.2. Modelización estadística
7.2.1. Modelización sin la hipótesis de normalidad
7.3. Modelización con la hipótesis de normalidad
7.3.1. Prueba de hipótesis para β0 y β1
7.3.2. Intervalos de confianza para β0, β1 y σ2
7.3.3. Intervalo de confianza para el promedio
7.3.4. Predicción de Y para un nuevo valor de x0
7.4. Análisis de los residuos
7.4.1. Residuo estandarizado, rstudent
7.4.2. Distancia de Cook
7.4.3. DFFITS, DFBETA
7.4.4. COVRATIO
7.5. Validez de las hipótesis
7.5.1. Linealidad de la relación entre Y y X
7.5.2. Homocedasticidad
7.5.3. Normalidad de los errores
7.5.4. No correlación de los errores

8. Regresión lineal múltiple
8.1. Estimación por mínimos cuadrados
8.1.1. Estimación de β
8.1.2. Estimación de σ2
8.2. Resultados suplementarios con la hipótesis de normalidad de ǫ
8.2.1. Intervalo de confianza de los coeficientes de regresión
8.2.2. Intervalo de confianza para el valor medio E(Y/x0)
8.2.3. Predicción de Y para una nueva observación
8.2.4. Pruebas de hipótesis
8.3. Selección de variables
8.3.1. Método paso a paso
8.3.2. Otros criterios de selección
8.3.3. Búsqueda del mejor modelo
8.3.4. Regresión múltiple como secuencia de regresiones simples
8.4. Violación de las hipótesis y evaluación del modelo
8.4.1. Representaciones gráficas
8.4.2. Estadísticas utilizadas
8.4.3. Modelo definido incorrectamente
8.4.4. Multicolinealidad
8.4.5. Heterocedasticidad
8.4.6. Correlación de los errores
8.4.7. Ausencia de normalidad
8.5. Análisis de covarianza

9. Regresión logística
9.1. Modelo logístico binario
9.1.1. Estimación de los parámetros
9.1.2. Prueba de hipótesis para los parámetros del modelo
9.1.3. Modelo logístico con una variable predictiva
9.1.4. Modelo logístico con dos variables explicativas
9.1.5. Modelo logístico con más de dos variables explicativas
9.1.6. Calidad del ajuste
9.1.7. Capacidad predictiva del modelo
9.2. Modelo logístico multinomial
9.2.1. Estimación de los parámetros del modelo
9.2.2. Problemas de interpretación
9.3. Modelo logístico condicional

A. M-simetría

B. Isomorfismo utilizado en ACP
B.1. Isomorfismo L(E × E;R) ≈ L(E,E∗)
B.2. Representación matricial de las aplicaciones de L(E ×E;R) y de L(E,E∗)

C. Esquema de dualidad en ACP

D. Complementos en probabilidad
D.1. Ley normal
D.1.1. Ley normal sobre R
D.1.2. Ley normal sobre Rn
D.2. Ley de Chi-cuadrado (χ2)
D.3. Ley Student
D.4. Ley Fisher-Snedecor
D.5. Formas cuadráticas: algunos resultados
D.5.1. Definición y clasificación de las formas cuadráticas
D.5.2. Leyes de formas cuadráticas
D.5.3. Independencia entre formas lineales y forma cuadrática

E. Sobre el uso de SPAD7.0
  • EDU027000 EDUCACIÓN > Estadística
  • Estadística