Advertencia: Si desea formalizar la solicitud de matrícula, debe tener en consideración que en la aplicación de la UNED la numeración del módulos es diferente a la que se indica a continuación. Asimismo, debe tener presente que el módulo “Sector Público y Sanidad” (que se centra en esas áreas), en la aplicación de matrícula está con el nombre “0014 Legislación sobre Big Data y Aplicaciones al Sector Público”. MÓDULO 1: Data Science y Big Data. La Nueva Realidad (Créditos: 5) 1. Métodos Estadísticos 1.1. Definición y clasificación de la Estadística1.2. Conceptos estadísticos fundamentales 2. Data Science y Big Data. La Nueva Realidad 2.1. Conceptos clave2.2. Minería de Datos o Data Mining2.3. Modelos SEMMA Y CRISP-DM2.4. Principales Métodos y Algoritmos en la Minería de Datos 3. Big Data 3.1. Desafíos3.1.1. Open Data3.1.2. Small Data y Smart Data3.1.3. No es oro todo lo que reluce3.1.4. Consideraciones legales básicas3.2. Aplicaciones3.3. Principales Herramientas3.4. R y RStudio3.5. Weka3.6. Introducción al lenguaje de programación Python3.7. El programa IBM SPSS Statistics: Conexión con R y Python3.8. Otro software: SQL, Julia, Scala 4. Introducción al preprocesado de datos 4.1. Introducción4.2. Análisis gráfico y descriptivo de la información4.3. Detección e imputación de datos ausentes4.4. Tratamiento de valores extremos (outliers)4.5. Transformación de la base de datos4.6. Discretización de variables4.7. Equilibrado de la muestra4.8. Reducción de la dimensionalidad4.9. Uso de muestras de entrenamiento, validación y test MÓDULO 2: Herramientas Big data (Créditos: 5) 1. Introducción a Linux 1.1. Comandos básicos1.2. Introducción a cómo programar en la shell1.3. Cómo usar Linux para manipular y analizar ficheros de gran tamaño 2. El BigData en el Contexto del Machine Learning a Gran Escala 3. Limitaciones Teóricas de las Bases de Datos Relacionales 4. Escalado Vertical vs. Escalado Horizontal 5. Estrategias de computación distribuida y en paralelo 6. Arquitectura de la Solución Machine Learning para BigData 6.1. Capa de Ingesta de Datos6.2. Capa de Ingestión6.3. Capa de Almacenamiento (Hadoop Storage)6.4. Plataforma Hadoop – Capa de Procesamiento6.5. Capa Analítica6.6. La Capa de Consumo6.7. La Capa de Seguridad y Monitorización 7. Hadoop 2.x 7.1. Componentes del Ecosistema Hadoop7.2. Distribuciones Hadoop y Proveedores 8. Soluciones y Librerías Machine Learning 9. Herramientas Machine Learning una Visión General 9.1. Apache Mahout9.2. Julia9.3. Python9.4. Apache Spark9.5. H2O 10. Paquetes Avanzados de R 11. Nociones Básicas Sobre Legislación en materia de protección de datos Personales 11.1. Ámbito de Aplicación11.2. Conceptos Básicos11.3. Principios11.4. Derechos de las Personas11.5. Obligaciones del Responsable del Tratamiento MÓDULO 3: Análisis de Datos Multivariantes I (Créditos: 5) 1. Modelo Lineal General 1.1. Modelo de Regresión Lineal1.2. Extensiones al modelo de Regresión Lineal1.3. Modelos con variables cualitativas explicativas1.4. Modelos ANCOVA1.5. Modelos con variable dependiente multivariante: MANOVA y MANCOVA1.6. Estimación por máxima verosimilitud restringida (REML) en modelos mixtos1.7. Ajuste de modelos mixtos con R 2. Modelo Lineal Generalizado 2.1. Formulación general.2.2. Modelos con variables cualitativas endógenas2.3. Modelo Tobit 3. Evaluación de modelos 3.1. Devianza. Estadístico G2 de Wilks de razón de verosimilitudes3.2. Estadístico χ2 de Pearson3.3. Criterio de información de Akaike (AIC) y Criterio de Información Bayesiano (BIC)3.4. Prueba de Hosmer-Lemeshaw3.5. Medidas tipo R2 4. Otros modelos de regresión 4.1. Estimación Curvilínea4.2. Regresión Ridge4.3. Regresión Robusta4.4. Regresión Bayesiana4.5. Regresión no paramétrica: Splines4.6. Modelo Aditivo Generalizado 5. Casos prácticos MÓDULO 4: Análisis de Datos Multivariantes II (Créditos: 5) 1. Medidas de distancia/proximidad 1.1. Medidas de distancia o disimilaridad1.2. Medidas de proximidad o similaridad1.3. Distancia de Mahalanobis 2. Reducción de dimensiones 2.1. Análisis Factorial y Componentes Principales2.2. Análisis de Correspondencias 3. Agrupamiento de la información 3.1. Análisis discriminante3.2. Análisis cluster 4. Escalamiento Multidimensional 4.1. Modelo general o método clásico4.2. Otros modelos de escalamiento4.3. Relación con otras técnicas multivariantes 5. Análisis de correlación canónica 5.1. Introducción5.2. Modelo5.3. Interpretación de resultados5.4. Ejemplo con R MÓDULO 5: Minería de Datos I (Créditos: 5) 1. Introducción a la Minería de Datos 2. Evaluación de modelos 2.1. Muestras de entrenamiento, validación y test 2.2. Validación cruzada 2.3. Métricas 2.4. Métodos basados en curvas ROC 2.5. Métodos que incorporan una matriz de costes 2.6. Evaluación de algoritmos 2.7. Librerías y meta paquetes en R para evaluar modelos2.8. Modelos con Python 3. Árboles de Decisión y Clasificación 3.1. Introducción 3.2. Aplicabilidad de los árboles de decisión para clasificación 3.3. Características de los algoritmos de clasificación3.4. Árbol CHAID (CHi-square Automatic Interaction Detection) y CHAID exhaustivo.3.5. Árbol CRT (Classification and Regression Trees) 3.7. Árbol C5.0 3.8. Otros algoritmos de clasificación3.9. Árboles de decisión con R3.10. Árboles de decisión con Python 4. Reglas de asociación 4.1. El algoritmo a priori 4.2. Validación de la regla 4.3. Librería a priori de R para la generación de reglas4.4. Código de Python para reglas de asociación 5. Redes neuronales artificiales 5.1. Introducción 5.2. Tipos de modelos de redes neuronales 5.3. Unidades de procesamiento de la información 5.4. Propiedades de los sistemas neuronales 5.5. Perceptrón multicapa 5.6. Funciones de base radial 5.7. Comparación entre las Funciones de Base Radial y el Perceptrón Multicapa 5.8. Análisis de sensibilidad e interpretación de los pesos de la red 5.9. Redes neuronales y modelos estadísticos clásicos 5.10. Otras arquitecturas de redes neuronales 5.11. Librerías de R para redes neuronales 5.12. Redes neuronales con Python 6. Máquinas de vectores soporte 6.1. Introducción 6.2. Máquinas de vectores soporte con margen máximo 6.3. Máquinas de vectores soporte con margen blando 6.4. Máquinas no lineales de vectores soporte 6.5. Aplicaciones de las máquinas de vectores soporte 6.6. Librerías de R para máquinas de vectores soporte6.7. Máquinas de vectores soporte con Python 7. Métodos basados en Vecindad. K Vecinos 7.1. Código R para el método K Vecinos7.2. Código Python para el método K Vecinos 8. Combinación de Modelos. Métodos de Ensemble. Multiclasificadores 8.1. BAGGING 8.2. BOOSTING 8.3. Fusión de clasificadores 8.4. Métodos híbridos 8.5. Algoritmos Bagging y Boosting en R8.7. Otros algoritmos: DECORATE y otros.8.8. Código Python para multiclasificadores 9. Métodos de Gradient Boosting 9.1. Introducción9.2. Metodología9.3. Diseño de un Gradient Boosting Machine9.4. Regularización del modelo9.5. Influencia de las variables9.6. Implementaciones de Gradient Boosting9.7. Parámetros e hiper parámetros en los modelos de Gradient Boosting9.8. Librerías de R para los modelos de GBM9.9. Gradient Boosting Machine con Python 10. Interpretabilidad y explicabilidad de los modelos de Data Science 10.1. Introducción. La necesidad de explicar los modelos. 10.2. Conceptos y clasificación de los modelos de interpretabilidad.10.3. Técnicas y métodos utilizadas para la interpretabilidad.10.4. Librerías de R y Python que nos ayudan a interpretar los modelos.10.5. Ejemplos de interpretabilidad con las librerías de R y Python.10.6. Algunos recursos útiles en internet sobre la explicabilidad de modelos de machine learning Anexos: 1. Librería/Entorno Rattle para clasificación y regresión.2. Librería RWeka para clasificación y regresión. MÓDULO 6: Análisis de Series Temporales (Créditos: 5) 1. Introducción 2. Métodos de suavizado 2.1. Medias Móviles2.2. Alisado Exponencial Simple2.3. Método de Holt-Winters.2.4. Regresión LOESS 3. Descomposición temporal 3.1. Componentes de una serie temporal3.2. Herramientas de R3.3. Evaluación métodos de descomposición. 4. Métodos de Predicción 4.1. Métodos paramétricos: modelos ARIMA4.2. Métodos no paramétricos. 5. Casos prácticos MÓDULO 7: Big Data en el Sector de Seguros (Créditos: 5) 1. Relevancia de los datos en el negocio asegurador: 1.1. Fundamentos técnicos del negocio asegurador1.2. Tarificación en seguros de Vida y no Vida 2. Tendencias data-centric disruptivas en la industria aseguradora: 2.1. Tipologías de análisis de datos y Machine Learning2.2. Innovación basada en datos2.3. Internet of Things (IoT)2.4. Artificial Intelligence (AI) 3. Casos reales de aplicación de analítica avanzada en aseguradoras: 3.1. Irrupción del IoT 3.2. Suscripción cognitiva3.4. InsurTechs y nuevos modelos de negocio 4. Pricing en seguros (práctica con R y H2O): 4.1. Modelos de supervivencia4.2. GLM en tarificación no Vida MÓDULO 8: Minería de Datos II (Créditos: 5) 1. Introducción a los Métodos Bayesianos 2. Teorema de Bayes e hipótesis MAP 3. Clasificador Naïve Bayes 4. Redes bayesianas 4.1. Definición formal4.2. Independencia condicional4.3. Inferencia propagación del conocimiento en la Red Bayesiana4.4. Aprendizaje en las Redes Bayesianas4.5. Métricas de evaluación4.6. Algoritmos de búsqueda y aprendizaje4.7. Algoritmos basados en test de independencia4.8. Clasificadores basados en Redes Bayesianas4.9. Tipos de Redes Bayesianas4.10. Ejemplo de Redes Bayesianas con WEKA4.11. Redes Bayesianas con R y Python 5. Algoritmos evolutivos 5.1. Introducción 5.2. Condiciones para la aplicación de los Algoritmos Genéticos 5.3. Ventajas e inconvenientes 5.4. Fundamentos teóricos (conceptos) 5.5. Selección de atributos con Algoritmos Genéticos 5.6. Conclusiones 5.7. Selección de variables a través de algoritmos genéticos con WEKA 5.8. Algoritmos genéticos con R y Python 6. Lógica Difusa 6.1. Historia6.2. Aplicaciones6.3. Definición y principales conceptos6.4. Características6.5. Etapas6.6. Conjuntos difusos6.7. Variables lingüísticas6.8. Función de pertenencia o membresía6.9. Operaciones en sets difusos6.10. Complementos difusos, t-normas y t-conormas6.11. Inferencia usando lógica difusa6.12. Modelos (mecanismos) de inferencia difusa6.13. Modelamiento difuso6.14. Modelamiento difuso con R y Python 7. Deep Learning 7.1. Introducción7.2. Revisión de las redes neuronales7.3. Principales arquitecturas de Deep Learning7.4. Redes neuronales convolucionales7.5. Redes Recurrentes7.6. Autoencoders7.7. Estado del arte del Deep learning7.8. Software para aplicar Deep Learning MÓDULO 9: Text Mining y Web Mining (Créditos: 5) 1. Definición de conceptos: Text Mining y Web Mining 1.1. Minería de Textos/Text Mining1.2. Minería de la Web/Web Mining 2. Presentación de documentos: Fundamentos 2.1. Modelos vectoriales2.2. Recuperación de información2.3. Clasificación de documentos2.4. Clustering de documentos2.5. Web Content, Structure y Usage Mining 3. Representación de documentos: Antecedentes y estado de la cuestión 3.1. Modelo de espacio vectorial3.2. Funciones de pesado3.3. Representaciones distribuídas (word embeddings)3.4. Funciones de ranking 4. Análisis lingüístico 4.1. Análisis léxico4.2. Eliminanción de stop-words 4.3. Lematización y truncado (stemming)4.4. Etiquetado gramatical (Part-of-Speech tagging)4.5. Análisis sintáctico superficial (Shallow parsing) 5. Análisis de sentimientos 5.1. Enfoques basados en lexicones5.2. Enfoques basados en Aprendizaje Automático MÓDULO 10: La Transformación Digital en el Sector Financiero (Créditos: 5) 1. Las nuevas tecnologías aplicadas al sector financiero 1.1. Big Data como paradigma de los datos en la banca y el sector financiero: Empresas data-driven1.2. Cloud Computing1.3. Ominicanalidad1.4. Medios de pago1.5. Nuevos modelos de negocio digitales en el sector bancario 2. La Banca Digital 2.1. Fundamentos de la Banca Digital2.2. Creación de una cultura digital2.3. Retos de la Banca Digital 3. Impacto de las Fintech en el sector financiero 3.1. Innovación y transformación de la cultura empresarial en el mundo digital3.2. Ecosistema Fintech. Actores e implicaciones para el sector financiero3.3. Las startups fintech3.4. Casos de éxito y fracaso 4. Crowdfunding y Crowdlending 4.1. La financiación en la empresa. Oportunidades en el contexto de la economía colaborativa4.2. Crowdfunding 4.3. Equity crowdfunding4.4. Crowdlending4.5. Aspectos regulatorios 5. Aplicaciones de Big Data y Data Science en servicios financieros 5.1. Credit Scoring5.2. Detección del fraude5.3. Experiencia del cliente MÓDULO 11: Turismo y Smart Cities (Créditos: 5) 1. Introducción 2. Turismo y Smart Cities (I) 2.1. Definiciones2.2. ¿Cómo se relacionan Turismo, Smart Cities, Movilidad Y Consumo?2.3. ¿Cómo describimos el comportamiento?2.4. Familiaricémonos con las variables. Algunos datos sobre el Turismo y las Smart Cities2.5. Datos Smart Cities 3. Turismo y Smart Cities (II) 3.1. El comportamiento turístico3.2. El gasto del turismo de No Residentes. EGATUR3.3. El tratamiento convencional del gasto turístico. EGATUR3.4. Algunas preguntas sobre el gasto turístico. Discusión de líneas de investigación basadas en patrones situacionales. 4. Turismo y Smart Cities (III) 4.1. La promoción y la regulación del Turismo. El enfoque de las Smart Cities4.2. Datos a tener en cuenta. Flujos de personas y flujos monetarios. Patrones de comportamiento e impacto. Elementos para un mapa de coyuntura turística4.3. Un modelo de diferencias de potencial y un modelo reproductivo, aplicados a los flujos turísticos4.4. Algunas preguntas sobre la promoción y la regulación del turismo. Discusión de líneas de investigación 5. Turismo y Smart Cities (IV) 5.1. APP móviles de consumo turístico5.2. Algunas preguntas sobre APP turísticas5.3. Ensayo de diseño de una APP orientada a la producción masiva de datos turísticos5.4. Una matriz de situación de una red de Smart Cities en el mercado turístico. Líneas de actuación inteligente con datos MÓDULO 12: La Revolución del Big Data en el Transporte (Créditos: 5) 1. La Importancia del Transporte en Nuestra Sociedad 1.1. Transporte y desarrollo: el concepto de accesibilidad1.2. El Papel del Transporte en la Distribución Espacial de Actividades1.3. Impactos del Transporte en la Sociedad y el Medio Ambiente1.4. Los Grandes Retos del Transporte 2. La Revolución de los Datos: Impacto en el Sistema de Transporte 2.1. Los Medios Tradicionales de Obtención de Datos de Movilidad: Encuestas y Estadísticas2.2. Las Nuevas Fuentes de Datos2.3. Retos y Oportunidades de las Nuevas Fuentes de Datos 3. Modelos Predictivos de Planificación del Transporte 3.1. Modelos de Transporte3.2. Modelos LUTI3.3. Aportaciones de los Sistemas de Información Geográfica3.4. Recursos en R 4. El Impacto del Big Data en la Movilidad Urbana e Interurbana 4.1. Nuevos Modelos de Negocio4.2. Cambios en el Comportamiento de los Ciudadanos4.3. Hacia una Mejor Planificación de lo Público 5. Oportunidades para el Sector Logístico 5.1. Detección de Fraude5.2. Cooperación para la Intermodalidad del Transporte de Mercancías MÓDULO 13: Publicidad Digital Aplicada a los Negocios (Créditos: 5) 1. La Comunicación Digital 1.1. Internet y la Empresa1.2. La Web del Usuario como Fuente de Datos en Marketing1.3. Diferenciación y Posicionamiento en la Web1.4. Casos Prácticos 2. Marketing Directo 2.1. Introducción2.2. Nuevas Herramientas2.3. Marketing de Relaciones2.4. Casos Prácticos 3. Marketing Y Las Nuevas Tecnologías 3.1. Marketing Móvil3.2. Marketing Integrado3.3. Experiencia de Usuario3.4. Casos Prácticos 4. Plan De Marketing 4.1. Planificación Estratégica de Marketing4.2. Caso Práctico MÓDULO 14: Sector Público y Sanidad (Créditos: 5) 1. Aplicaciones del Big Data en la Estadística Oficial 1.1. Introducción: De la estadística 1.0 a la estadística 4.01.2. Big Data y su aportación a la estadística oficial mediante el estudio de la huella digital de la actividad humana1.3. El Big data en el contexto del sistema estadístico internacional1.4. El Big data en el contexto del sistema estadístico nacional1.5. Big Data y estadística oficial: Retos que plantea1.6. Algunos ejemplos de uso 2. Big Data en Ciencias de la Salud 2.1. Utilidades y retos del Big Data en la práctica clínica2.2. Fuentes de datos en aplicaciones clínicas2.3. Procesado de datos clínicos. Etapas y métricas de rendimiento diagnóstico2.4. Análisis de casos de uso 3. Herramientas de Big Data aplicadas a la medicina 3.1. Ayuda al diagnóstico mediante redes neuronales3.2. Combinación de expertos mediante ensemble learning3.3. Deep learning en aplicaciones clínicas3.4. Análisis de casos de uso MÓDULO 15: Normativa de Protección de Datos (Créditos: 5) 1. Introducción 1.1. Objeto1.2. Ámbito de aplicación1.3. Definiciones 2. Principios relativos 2.1. Licitud del tratamiento2.2. Consentimiento2.3. Otros tratamientos 3. Derechos del interesado 3.1. Transparencia3.2. Información y acceso a los datos personales3.3. Rectificación y supresión3.4. Limitación al tratamiento3.5. Portabilidad3.6. Oposición y decisiones individuales automatizadas 4. Responsable y encargado del tratamiento 4.1. Responsabilidad del responsable del tratamiento4.2. Encargado del tratamiento4.3. Registro de las actividades de tratamiento4.4. Transferencias internacionales4.5. Cooperación con la autoridad de control 5. Responsabilidad proactiva 5.1. Protección de datos desde el diseño y por defecto5.2. Delegado de protección de datos5.3. Códigos de conducta y certificación5.4. Análisis de riesgos y evaluaciones de impacto5.5. Seguridad MÓDULO 16: TRABAJO FIN DE MASTER (Créditos: 10) Aquellos estudiantes que cursen el Máster y hayan alcanzado 50 créditos, los últimos 10 créditos para la consecución del título se obtendrán con la elaboración de un trabajo final obligatorio.
Si desea formalizar la solicitud de matrícula, debe tener en consideración que en la aplicación de la UNED la numeración del módulos es diferente a la que se indica a continuación. Asimismo, debe tener presente que el módulo “Sector Público y Sanidad” (que se centra en esas áreas), en la aplicación de matrícula está con el nombre “0014 Legislación sobre Big Data y Aplicaciones al Sector Público”.
1. Métodos Estadísticos
1.1. Definición y clasificación de la Estadística1.2. Conceptos estadísticos fundamentales
2. Data Science y Big Data. La Nueva Realidad
2.1. Conceptos clave2.2. Minería de Datos o Data Mining2.3. Modelos SEMMA Y CRISP-DM2.4. Principales Métodos y Algoritmos en la Minería de Datos
3. Big Data
3.1. Desafíos3.1.1. Open Data3.1.2. Small Data y Smart Data3.1.3. No es oro todo lo que reluce3.1.4. Consideraciones legales básicas3.2. Aplicaciones3.3. Principales Herramientas3.4. R y RStudio3.5. Weka3.6. Introducción al lenguaje de programación Python3.7. El programa IBM SPSS Statistics: Conexión con R y Python3.8. Otro software: SQL, Julia, Scala
4. Introducción al preprocesado de datos
4.1. Introducción4.2. Análisis gráfico y descriptivo de la información4.3. Detección e imputación de datos ausentes4.4. Tratamiento de valores extremos (outliers)4.5. Transformación de la base de datos4.6. Discretización de variables4.7. Equilibrado de la muestra4.8. Reducción de la dimensionalidad4.9. Uso de muestras de entrenamiento, validación y test
1. Introducción a Linux
1.1. Comandos básicos1.2. Introducción a cómo programar en la shell1.3. Cómo usar Linux para manipular y analizar ficheros de gran tamaño
2. El BigData en el Contexto del Machine Learning a Gran Escala
3. Limitaciones Teóricas de las Bases de Datos Relacionales
4. Escalado Vertical vs. Escalado Horizontal
5. Estrategias de computación distribuida y en paralelo
6. Arquitectura de la Solución Machine Learning para BigData
6.1. Capa de Ingesta de Datos6.2. Capa de Ingestión6.3. Capa de Almacenamiento (Hadoop Storage)6.4. Plataforma Hadoop – Capa de Procesamiento6.5. Capa Analítica6.6. La Capa de Consumo6.7. La Capa de Seguridad y Monitorización
7. Hadoop 2.x
7.1. Componentes del Ecosistema Hadoop7.2. Distribuciones Hadoop y Proveedores
8. Soluciones y Librerías Machine Learning
9. Herramientas Machine Learning una Visión General
9.1. Apache Mahout9.2. Julia9.3. Python9.4. Apache Spark9.5. H2O
10. Paquetes Avanzados de R
11. Nociones Básicas Sobre Legislación en materia de protección de datos Personales
11.1. Ámbito de Aplicación11.2. Conceptos Básicos11.3. Principios11.4. Derechos de las Personas11.5. Obligaciones del Responsable del Tratamiento
1. Modelo Lineal General
1.1. Modelo de Regresión Lineal1.2. Extensiones al modelo de Regresión Lineal1.3. Modelos con variables cualitativas explicativas1.4. Modelos ANCOVA1.5. Modelos con variable dependiente multivariante: MANOVA y MANCOVA1.6. Estimación por máxima verosimilitud restringida (REML) en modelos mixtos1.7. Ajuste de modelos mixtos con R
2. Modelo Lineal Generalizado
2.1. Formulación general.2.2. Modelos con variables cualitativas endógenas2.3. Modelo Tobit
3. Evaluación de modelos
3.1. Devianza. Estadístico G2 de Wilks de razón de verosimilitudes3.2. Estadístico χ2 de Pearson3.3. Criterio de información de Akaike (AIC) y Criterio de Información Bayesiano (BIC)3.4. Prueba de Hosmer-Lemeshaw3.5. Medidas tipo R2
4. Otros modelos de regresión
4.1. Estimación Curvilínea4.2. Regresión Ridge4.3. Regresión Robusta4.4. Regresión Bayesiana4.5. Regresión no paramétrica: Splines4.6. Modelo Aditivo Generalizado
5. Casos prácticos
1. Medidas de distancia/proximidad
1.1. Medidas de distancia o disimilaridad1.2. Medidas de proximidad o similaridad1.3. Distancia de Mahalanobis
2. Reducción de dimensiones
2.1. Análisis Factorial y Componentes Principales2.2. Análisis de Correspondencias
3. Agrupamiento de la información
3.1. Análisis discriminante3.2. Análisis cluster
4. Escalamiento Multidimensional
4.1. Modelo general o método clásico4.2. Otros modelos de escalamiento4.3. Relación con otras técnicas multivariantes
5. Análisis de correlación canónica
5.1. Introducción5.2. Modelo5.3. Interpretación de resultados5.4. Ejemplo con R
1. Introducción a la Minería de Datos
2. Evaluación de modelos
2.1. Muestras de entrenamiento, validación y test 2.2. Validación cruzada 2.3. Métricas 2.4. Métodos basados en curvas ROC 2.5. Métodos que incorporan una matriz de costes 2.6. Evaluación de algoritmos 2.7. Librerías y meta paquetes en R para evaluar modelos2.8. Modelos con Python
3. Árboles de Decisión y Clasificación
3.1. Introducción 3.2. Aplicabilidad de los árboles de decisión para clasificación 3.3. Características de los algoritmos de clasificación3.4. Árbol CHAID (CHi-square Automatic Interaction Detection) y CHAID exhaustivo.3.5. Árbol CRT (Classification and Regression Trees) 3.7. Árbol C5.0 3.8. Otros algoritmos de clasificación3.9. Árboles de decisión con R3.10. Árboles de decisión con Python
4. Reglas de asociación
4.1. El algoritmo a priori
4.2. Validación de la regla 4.3. Librería a priori de R para la generación de reglas4.4. Código de Python para reglas de asociación
5. Redes neuronales artificiales
5.1. Introducción 5.2. Tipos de modelos de redes neuronales 5.3. Unidades de procesamiento de la información 5.4. Propiedades de los sistemas neuronales 5.5. Perceptrón multicapa 5.6. Funciones de base radial 5.7. Comparación entre las Funciones de Base Radial y el Perceptrón Multicapa 5.8. Análisis de sensibilidad e interpretación de los pesos de la red 5.9. Redes neuronales y modelos estadísticos clásicos 5.10. Otras arquitecturas de redes neuronales 5.11. Librerías de R para redes neuronales 5.12. Redes neuronales con Python
6. Máquinas de vectores soporte
6.1. Introducción 6.2. Máquinas de vectores soporte con margen máximo 6.3. Máquinas de vectores soporte con margen blando 6.4. Máquinas no lineales de vectores soporte 6.5. Aplicaciones de las máquinas de vectores soporte 6.6. Librerías de R para máquinas de vectores soporte6.7. Máquinas de vectores soporte con Python
7. Métodos basados en Vecindad. K Vecinos
7.1. Código R para el método K Vecinos7.2. Código Python para el método K Vecinos
8. Combinación de Modelos. Métodos de Ensemble. Multiclasificadores
8.1. BAGGING 8.2. BOOSTING 8.3. Fusión de clasificadores 8.4. Métodos híbridos 8.5. Algoritmos Bagging y Boosting en R8.7. Otros algoritmos: DECORATE y otros.8.8. Código Python para multiclasificadores
9. Métodos de Gradient Boosting
9.1. Introducción9.2. Metodología9.3. Diseño de un Gradient Boosting Machine9.4. Regularización del modelo9.5. Influencia de las variables9.6. Implementaciones de Gradient Boosting9.7. Parámetros e hiper parámetros en los modelos de Gradient Boosting9.8. Librerías de R para los modelos de GBM9.9. Gradient Boosting Machine con Python
10. Interpretabilidad y explicabilidad de los modelos de Data Science
10.1. Introducción. La necesidad de explicar los modelos. 10.2. Conceptos y clasificación de los modelos de interpretabilidad.10.3. Técnicas y métodos utilizadas para la interpretabilidad.10.4. Librerías de R y Python que nos ayudan a interpretar los modelos.10.5. Ejemplos de interpretabilidad con las librerías de R y Python.10.6. Algunos recursos útiles en internet sobre la explicabilidad de modelos de machine learning
Anexos:
1. Librería/Entorno Rattle para clasificación y regresión.2. Librería RWeka para clasificación y regresión.
1. Introducción
2. Métodos de suavizado
2.1. Medias Móviles2.2. Alisado Exponencial Simple2.3. Método de Holt-Winters.2.4. Regresión LOESS
3. Descomposición temporal
3.1. Componentes de una serie temporal3.2. Herramientas de R3.3. Evaluación métodos de descomposición.
4. Métodos de Predicción
4.1. Métodos paramétricos: modelos ARIMA4.2. Métodos no paramétricos.
1. Relevancia de los datos en el negocio asegurador:
1.1. Fundamentos técnicos del negocio asegurador1.2. Tarificación en seguros de Vida y no Vida
2. Tendencias data-centric disruptivas en la industria aseguradora:
2.1. Tipologías de análisis de datos y Machine Learning2.2. Innovación basada en datos2.3. Internet of Things (IoT)2.4. Artificial Intelligence (AI)
3. Casos reales de aplicación de analítica avanzada en aseguradoras:
3.1. Irrupción del IoT 3.2. Suscripción cognitiva3.4. InsurTechs y nuevos modelos de negocio
4. Pricing en seguros (práctica con R y H2O):
4.1. Modelos de supervivencia4.2. GLM en tarificación no Vida
1. Introducción a los Métodos Bayesianos
2. Teorema de Bayes e hipótesis MAP
3. Clasificador Naïve Bayes
4. Redes bayesianas
4.1. Definición formal4.2. Independencia condicional4.3. Inferencia propagación del conocimiento en la Red Bayesiana4.4. Aprendizaje en las Redes Bayesianas4.5. Métricas de evaluación4.6. Algoritmos de búsqueda y aprendizaje4.7. Algoritmos basados en test de independencia4.8. Clasificadores basados en Redes Bayesianas4.9. Tipos de Redes Bayesianas4.10. Ejemplo de Redes Bayesianas con WEKA4.11. Redes Bayesianas con R y Python
5. Algoritmos evolutivos
5.1. Introducción 5.2. Condiciones para la aplicación de los Algoritmos Genéticos 5.3. Ventajas e inconvenientes 5.4. Fundamentos teóricos (conceptos) 5.5. Selección de atributos con Algoritmos Genéticos 5.6. Conclusiones 5.7. Selección de variables a través de algoritmos genéticos con WEKA 5.8. Algoritmos genéticos con R y Python
6. Lógica Difusa
6.1. Historia6.2. Aplicaciones6.3. Definición y principales conceptos6.4. Características6.5. Etapas6.6. Conjuntos difusos6.7. Variables lingüísticas6.8. Función de pertenencia o membresía6.9. Operaciones en sets difusos6.10. Complementos difusos, t-normas y t-conormas6.11. Inferencia usando lógica difusa6.12. Modelos (mecanismos) de inferencia difusa6.13. Modelamiento difuso6.14. Modelamiento difuso con R y Python
7. Deep Learning
7.1. Introducción7.2. Revisión de las redes neuronales7.3. Principales arquitecturas de Deep Learning7.4. Redes neuronales convolucionales7.5. Redes Recurrentes7.6. Autoencoders7.7. Estado del arte del Deep learning7.8. Software para aplicar Deep Learning
1. Definición de conceptos: Text Mining y Web Mining
1.1. Minería de Textos/Text Mining1.2. Minería de la Web/Web Mining
2. Presentación de documentos: Fundamentos
2.1. Modelos vectoriales2.2. Recuperación de información2.3. Clasificación de documentos2.4. Clustering de documentos2.5. Web Content, Structure y Usage Mining
3. Representación de documentos: Antecedentes y estado de la cuestión
3.1. Modelo de espacio vectorial3.2. Funciones de pesado3.3. Representaciones distribuídas (word embeddings)3.4. Funciones de ranking
4. Análisis lingüístico
4.1. Análisis léxico4.2. Eliminanción de stop-words 4.3. Lematización y truncado (stemming)4.4. Etiquetado gramatical (Part-of-Speech tagging)4.5. Análisis sintáctico superficial (Shallow parsing)
5. Análisis de sentimientos
5.1. Enfoques basados en lexicones5.2. Enfoques basados en Aprendizaje Automático
1. Las nuevas tecnologías aplicadas al sector financiero
1.1. Big Data como paradigma de los datos en la banca y el sector financiero: Empresas data-driven1.2. Cloud Computing1.3. Ominicanalidad1.4. Medios de pago1.5. Nuevos modelos de negocio digitales en el sector bancario
2. La Banca Digital
2.1. Fundamentos de la Banca Digital2.2. Creación de una cultura digital2.3. Retos de la Banca Digital
3. Impacto de las Fintech en el sector financiero
3.1. Innovación y transformación de la cultura empresarial en el mundo digital3.2. Ecosistema Fintech. Actores e implicaciones para el sector financiero3.3. Las startups fintech3.4. Casos de éxito y fracaso
4. Crowdfunding y Crowdlending
4.1. La financiación en la empresa. Oportunidades en el contexto de la economía colaborativa4.2. Crowdfunding 4.3. Equity crowdfunding4.4. Crowdlending4.5. Aspectos regulatorios
5. Aplicaciones de Big Data y Data Science en servicios financieros
5.1. Credit Scoring5.2. Detección del fraude5.3. Experiencia del cliente
2. Turismo y Smart Cities (I)
2.1. Definiciones2.2. ¿Cómo se relacionan Turismo, Smart Cities, Movilidad Y Consumo?2.3. ¿Cómo describimos el comportamiento?2.4. Familiaricémonos con las variables. Algunos datos sobre el Turismo y las Smart Cities2.5. Datos Smart Cities
3. Turismo y Smart Cities (II)
3.1. El comportamiento turístico3.2. El gasto del turismo de No Residentes. EGATUR3.3. El tratamiento convencional del gasto turístico. EGATUR3.4. Algunas preguntas sobre el gasto turístico. Discusión de líneas de investigación basadas en patrones situacionales.
4. Turismo y Smart Cities (III)
4.1. La promoción y la regulación del Turismo. El enfoque de las Smart Cities4.2. Datos a tener en cuenta. Flujos de personas y flujos monetarios. Patrones de comportamiento e impacto. Elementos para un mapa de coyuntura turística4.3. Un modelo de diferencias de potencial y un modelo reproductivo, aplicados a los flujos turísticos4.4. Algunas preguntas sobre la promoción y la regulación del turismo. Discusión de líneas de investigación
5. Turismo y Smart Cities (IV)
5.1. APP móviles de consumo turístico5.2. Algunas preguntas sobre APP turísticas5.3. Ensayo de diseño de una APP orientada a la producción masiva de datos turísticos5.4. Una matriz de situación de una red de Smart Cities en el mercado turístico. Líneas de actuación inteligente con datos
1. La Importancia del Transporte en Nuestra Sociedad
1.1. Transporte y desarrollo: el concepto de accesibilidad1.2. El Papel del Transporte en la Distribución Espacial de Actividades1.3. Impactos del Transporte en la Sociedad y el Medio Ambiente1.4. Los Grandes Retos del Transporte
2. La Revolución de los Datos: Impacto en el Sistema de Transporte
2.1. Los Medios Tradicionales de Obtención de Datos de Movilidad: Encuestas y Estadísticas2.2. Las Nuevas Fuentes de Datos2.3. Retos y Oportunidades de las Nuevas Fuentes de Datos
3. Modelos Predictivos de Planificación del Transporte
3.1. Modelos de Transporte3.2. Modelos LUTI3.3. Aportaciones de los Sistemas de Información Geográfica3.4. Recursos en R
4. El Impacto del Big Data en la Movilidad Urbana e Interurbana
4.1. Nuevos Modelos de Negocio4.2. Cambios en el Comportamiento de los Ciudadanos4.3. Hacia una Mejor Planificación de lo Público
5. Oportunidades para el Sector Logístico
5.1. Detección de Fraude5.2. Cooperación para la Intermodalidad del Transporte de Mercancías
1. La Comunicación Digital
1.1. Internet y la Empresa1.2. La Web del Usuario como Fuente de Datos en Marketing1.3. Diferenciación y Posicionamiento en la Web1.4. Casos Prácticos
2. Marketing Directo
2.1. Introducción2.2. Nuevas Herramientas2.3. Marketing de Relaciones2.4. Casos Prácticos
3. Marketing Y Las Nuevas Tecnologías
3.1. Marketing Móvil3.2. Marketing Integrado3.3. Experiencia de Usuario3.4. Casos Prácticos
4. Plan De Marketing
4.1. Planificación Estratégica de Marketing4.2. Caso Práctico
1. Aplicaciones del Big Data en la Estadística Oficial
1.1. Introducción: De la estadística 1.0 a la estadística 4.01.2. Big Data y su aportación a la estadística oficial mediante el estudio de la huella digital de la actividad humana1.3. El Big data en el contexto del sistema estadístico internacional1.4. El Big data en el contexto del sistema estadístico nacional1.5. Big Data y estadística oficial: Retos que plantea1.6. Algunos ejemplos de uso
2. Big Data en Ciencias de la Salud
2.1. Utilidades y retos del Big Data en la práctica clínica2.2. Fuentes de datos en aplicaciones clínicas2.3. Procesado de datos clínicos. Etapas y métricas de rendimiento diagnóstico2.4. Análisis de casos de uso
3. Herramientas de Big Data aplicadas a la medicina
3.1. Ayuda al diagnóstico mediante redes neuronales3.2. Combinación de expertos mediante ensemble learning3.3. Deep learning en aplicaciones clínicas3.4. Análisis de casos de uso
1.1. Objeto1.2. Ámbito de aplicación1.3. Definiciones
2. Principios relativos
2.1. Licitud del tratamiento2.2. Consentimiento2.3. Otros tratamientos
3. Derechos del interesado
3.1. Transparencia3.2. Información y acceso a los datos personales3.3. Rectificación y supresión3.4. Limitación al tratamiento3.5. Portabilidad3.6. Oposición y decisiones individuales automatizadas
4. Responsable y encargado del tratamiento
4.1. Responsabilidad del responsable del tratamiento4.2. Encargado del tratamiento4.3. Registro de las actividades de tratamiento4.4. Transferencias internacionales4.5. Cooperación con la autoridad de control
5. Responsabilidad proactiva
5.1. Protección de datos desde el diseño y por defecto5.2. Delegado de protección de datos5.3. Códigos de conducta y certificación5.4. Análisis de riesgos y evaluaciones de impacto5.5. Seguridad
Aquellos estudiantes que cursen el Máster y hayan alcanzado 50 créditos, los últimos 10 créditos para la consecución del título se obtendrán con la elaboración de un trabajo final obligatorio.