TODO PASA POR EL ANÁLISIS DE DATOS...

 Advertencia:

Si desea formalizar la solicitud de matrícula, debe tener en consideración que en la aplicación de la UNED la numeración del módulos es diferente a la que se  indica a continuación. Asimismo, debe tener presente que el módulo “Sector Público y Sanidad” (que se centra en esas áreas), en la aplicación de matrícula está con el nombre “0014 Legislación sobre Big Data y Aplicaciones al Sector Público”.

MÓDULO 1: Data Science y Big Data. La Nueva Realidad (Créditos: 5)

1. Métodos Estadísticos

1.1. Definición y clasificación de la Estadística
1.2. Conceptos estadísticos fundamentales

2. Data Science y Big Data. La Nueva Realidad

2.1. Conceptos clave
2.2. Minería de Datos o Data Mining
2.3. Modelos SEMMA Y CRISP-DM
2.3.1. Modelo SEMMA
2.3.2. Modelo CRISP-DM
2.3.3. Diferencias entre SEMMA Y CRISP-DM
2.4. Principales Métodos y Algoritmos en la Minería de Datos

3. Big Data

3.1. Acceso a fuente de datos
3.1.1 No es oro todo lo que reluce
3.2. Consideraciones legales básicas
3.3. Aplicaciones del Big Data
3.4. Herramientas:
3.4.1. Hadoop
3.4.2. Spark
3.4.3. Otras herramientas
3.5. Big Data en la Nube
3.5.1. Principales servidores cloud
3.5.2. Big Data en Microsoft Azure
3.5.3. Caso de Uso: Arquitectura Big Data – ML

4. Introducción a la programación en Data Science

4.1. R y R-Studio
4.1.1. Consola R-Studio
4.1.2. R Markdown
4.1.3. Librerías para Data Science
4.2. Python:
4.2.1. Jupyter Notebooks
4.2.2. Pycharm
4.2.3. Librerías para Data Science
4.3. Otro Software utilizado en Data
4.3.1. SPSS
4.3.2. SQL
4.3.3. Julia
4.3.4. Scala

5. Gestión de proyectos de Software aplicados al Data Science

5.1. Metodología SCRUM y Agile
5.2. Repositorio de Código. Introducción a Git
5.2.1. Buenas prácticas de software
5.2.2. Git: características e importancia para un científico de datos
5.2.3. Comandos básicos de Git
5.3. Plataformas de desarrollo colaborativo
5.3.1. GiLlab
5.3.2. Bitbuket
5.3.3. GitHub
5.4. Estructura de proyectos de Data Science
5.4.1. Ejemplo de proyecto y conexión con GitHub

 

MÓDULO 2: Herramientas Big data (Créditos: 5)

0. Introducción a Linux.

1. El BigData en el Contexto del Machine Learning a Gran Escala

2. Limitaciones Teóricas de las Bases de Datos Relacionales

3. Escalado Vertical vs. Escalado Horizontal

4. Estrategias de computación distribuida y en paralelo

5. Arquitectura de la Solución Machine Learning para BigData

5.1. Capa de Ingesta de Datos
5.2. Capa de Ingestión
5.3. Capa de Almacenamiento (Hadoop Storage)
5.4. Plataforma Hadoop – Capa de Procesamiento
5.5. Capa Analítica
5.6. La Capa de Consumo
5.7. La Capa de Seguridad y Monitorización

6. Ecosistema Hadoop

6.1. Componentes del Ecosistema Hadoop
6.2. Distribuciones Hadoop y Proveedores

7. DevOps – Desarrollo (Dev) y Operaciones (Ops)

7.1 La importancia de productivizar/industrializar modelos estadísticos.

8. Le Evolución de los Entornos BigData

9. ¿Cómo se organizan los equipos de Analítica Avanzada?

10. Soluciones y Librerías Machine Learning

11. Herramientas Machine Learning una Visión General

11.1. Apache Mahout
11.2. Julia
11.3. Python
11.4. Apache Spark
11.5. H2O

12. Paquetes Avanzados de R

13. Introducción al RGPD (Reglamento General Protección de Datos)

13.1. Introducción
13.2. Ámbito de aplicación del RGPD
13.3. Conceptos Básicos
13.4. Principios
13.5. Derechos de las personas
13.6. Obligaciones del responsable del tratamiento

  

MÓDULO 3: Análisis de Datos Multivariantes I (Créditos: 5)

1. Modelo Lineal General

1.1. Modelo de Regresión Lineal
1.2. Extensiones al modelo de Regresión Lineal
1.3. Modelos con variables cualitativas explicativas
1.4. Modelos ANCOVA
1.5. Modelos con variable dependiente multivariante: MANOVA y MANCOVA
1.6. Estimación por máxima verosimilitud restringida (REML) en modelos mixtos
1.7. Ajuste de modelos mixtos con R

2. Modelo Lineal Generalizado

2.1. Formulación general.
2.2. Modelos con variables cualitativas endógenas
2.3. Modelo Tobit

3. Evaluación de modelos

3.1. Devianza. Estadístico G2 de Wilks de razón de verosimilitudes
3.2. Estadístico χ2 de Pearson
3.3. Criterio de información de Akaike (AIC) y Criterio de Información Bayesiano (BIC)
3.4. Prueba de Hosmer-Lemeshaw
3.5. Medidas tipo R2

4. Otros modelos de regresión

4.1. Estimación Curvilínea
4.2. Regresión Ridge
4.3. Regresión Robusta
4.4. Regresión Bayesiana
4.5. Regresión no paramétrica: Splines
4.6. Modelo Aditivo Generalizado

5. Casos prácticos

 

MÓDULO 4: Análisis de Datos Multivariantes II (Créditos: 5)

1. Medidas de distancia/proximidad

1.1. Medidas de distancia o disimilaridad
1.2. Medidas de proximidad o similaridad
1.3. Distancia de Mahalanobis

2. Reducción de dimensiones

2.1. Análisis Factorial y Componentes Principales
2.2. Análisis de Correspondencias

3. Agrupamiento de la información

3.1. Análisis discriminante
3.2. Análisis cluster

4. Escalamiento Multidimensional

4.1. Modelo general o método clásico
4.2. Otros modelos de escalamiento
4.3. Relación con otras técnicas multivariantes

5. Análisis de correlación canónica

5.1. Introducción
5.2. Modelo
5.3. Interpretación de resultados
 

MÓDULO 5: Minería de Datos I (Créditos: 5)

1. Introducción a la Minería de Datos  

2. Evaluación de modelos

2.1. Muestras de entrenamiento, validación y test
2.2. Validación cruzada
2.3. Métricas
2.4. Métodos basados en curvas ROC
2.5. Métodos que incorporan una matriz de costes
2.6. Evaluación de algoritmos
2.7. Librerías y meta paquetes en R para evaluar modelos
2.8. Modelos con Python

3. Árboles de Decisión y Clasificación

3.1. Introducción
3.2. Aplicabilidad de los árboles de decisión para clasificación
3.3. Características de los algoritmos de clasificación
3.4. Árbol CHAID (CHi-square Automatic Interaction Detection) y CHAID exhaustivo.
3.5. Árbol CRT (Classification and Regression Trees)
3.7. Árbol C5.0
3.8. Otros algoritmos de clasificación
3.9. Árboles de decisión con R
3.10. Árboles de decisión con Python

4. Reglas de asociación

4.1. El algoritmo a priori

4.2. Validación de la regla
4.3. Librería a priori de R para la generación de reglas
4.4. Código de Python para reglas de asociación

5. Redes neuronales artificiales

 5.1. Introducción
 5.2. Tipos de modelos de redes neuronales
 5.3. Unidades de procesamiento de la información
 5.4. Propiedades de los sistemas neuronales
 5.5. Perceptrón multicapa
 5.6. Funciones de base radial
 5.7. Comparación entre las Funciones de Base Radial y el Perceptrón Multicapa
 5.8. Análisis de sensibilidad e interpretación de los pesos de la red
 5.9. Redes neuronales y modelos estadísticos clásicos
 5.10. Otras arquitecturas de redes neuronales
 5.11. Librerías de R para redes neuronales
 5.12. Redes neuronales con Python

6. Máquinas de vectores soporte

6.1. Introducción
6.2. Máquinas de vectores soporte con margen máximo
6.3. Máquinas de vectores soporte con margen blando
6.4. Máquinas no lineales de vectores soporte
6.5. Aplicaciones de las máquinas de vectores soporte
6.6. Librerías de R para máquinas de vectores soporte
6.7. Máquinas de vectores soporte con Python

7. Métodos basados en Vecindad. K Vecinos

7.1. Código R para el método K Vecinos
7.2. Código Python para el método K Vecinos

8. Combinación de Modelos. Métodos de Ensemble. Multiclasificadores

8.1. BAGGING
8.2. BOOSTING
8.3. Fusión de clasificadores
8.4. Métodos híbridos
8.5. Algoritmos Bagging y Boosting en R
8.7. Otros algoritmos: DECORATE y otros.
8.8. Código Python para multiclasificadores

9. Métodos de Gradient Boosting

9.1. Introducción
9.2. Metodología
9.3. Diseño de un Gradient Boosting Machine
9.4. Regularización del modelo
9.5. Influencia de las variables
9.6. Implementaciones de Gradient Boosting
9.7. Parámetros e hiper parámetros en los modelos de Gradient Boosting
9.8. Librerías de R para los modelos de GBM
9.9. Gradient Boosting Machine con Python

10. Interpretabilidad y explicabilidad de los modelos de Data Science

10.1. Introducción. La necesidad de explicar los modelos.
10.2. Conceptos y clasificación de los modelos de interpretabilidad.
10.3. Técnicas y métodos utilizadas para la interpretabilidad.
10.4. Librerías de R y Python que nos ayudan a interpretar los modelos.
10.5. Ejemplos de interpretabilidad con las librerías de R y Python.
10.6. Algunos recursos útiles en internet sobre la explicabilidad de modelos de machine learning

Anexos:

1. Librería/Entorno Rattle para clasificación y regresión.
2. Librería RWeka para clasificación y regresión.

 

MÓDULO 6: Análisis de Series Temporales (Créditos: 5)

1. Introducción

2. Métodos de suavizado

2.1. Medias Móviles
2.2. Alisado Exponencial Simple
2.3. Método de Holt-Winters.
2.4. Regresión LOESS

3. Descomposición temporal

3.1. Componentes de una serie temporal
3.2. Herramientas de R
3.3. Evaluación métodos de descomposición.

4. Métodos de Predicción

4.1. Métodos paramétricos: modelos ARIMA
4.2. Métodos no paramétricos.

5. Casos prácticos

 

MÓDULO 7: Big Data en el Sector de Seguros (Créditos: 5)

1. Relevancia de los datos en el negocio asegurador:

1.1. Fundamentos técnicos del negocio asegurador
1.2. Tarificación en seguros de Vida y no Vida

2. Tendencias data-centric disruptivas en la industria aseguradora:

2.1. Tipologías de análisis de datos y Machine Learning
2.2. Innovación basada en datos
2.3. Internet of Things (IoT)
2.4. Artificial Intelligence (AI)

3. Casos reales de aplicación de analítica avanzada en aseguradoras:

3.1. Irrupción del IoT
3.2. Suscripción cognitiva
3.4. InsurTechs y nuevos modelos de negocio

4. Pricing en seguros (práctica con R y H2O):

4.1. Modelos de supervivencia
4.2. GLM en tarificación no Vida

 

MÓDULO 8: Minería de Datos II (Créditos: 5)

1. Introducción Deep al Learning

1.1. Principales arquitecturas y Software utilizado
1.2.
Redes Convolucionales
1.2.1.
Clasificación y segmentación de imágenes
1.3.2.
Clasificación de textos
1.3.
Redes recurrentes: Elman, Jordan, LSTM y GRU
1.3.1.
Forecasting en series de tiempo
1.3.2.
Clasificación y generación de textos
1.4.
Autoencoders
1.4.1.
Detección de anomalías
1.5.
Arquitecturas preentrenadas. Casos de uso
1.5.1.
Detección de objetos
1.5.2.
Tratamiento de audios
1.6.
Aprendizaje por Refuerzo
1.6.1.
Q-Learning y Deep Q-Learning
1.6.2.
Ejemplos prácticos

2. Análisis Causal y Modelos Gráficos Probabilísticos

2.1. Relaciones y Modelos Causales
2.2.
Redes bayesianas: aprendizaje y clasificadores
2.2.1.
Hipótesis MAP y Naive-Bayes
2.2.2.
Modelos bayesianos
2.3.
Modelos Ocultos de Markov
2.3.1.
Tipos de cadenas de Markov
2.3.2.
Aplicaciones de MOMs
2.4.
Causal Machine Learning
2.4.1.
Efectos causales. ATE y CATE
2.4.2.
Uplift

3. Algoritmos Evolutivos

3.1. Conceptos clave
3.1.1.
Codificación
3.1.2.
Probabilidad de ocurrencia y función de fitness
3.2.
Ejemplos prácticos
3.2.1.
Selección de características
3.2.2.
Arquitectura de NN mediante algoritmos genéticos

4. Lógica Difusa

4.1. Conceptos clave.
4.1.1.
Conjuntos difusos y funciones de membresía
4.1.2.
Inferencia y Modelamiento difuso
4.2.
Ejemplos prácticos
4.2.1.
Clustering Difuso
4.2.2.
Herramientas de Diagnóstico

 

MÓDULO 9: Text Mining y Web Mining (Créditos: 5)

1. Definición de conceptos: Text Mining y Web Mining

1.1. Minería de Textos/Text Mining
1.2. Minería de la Web/Web Mining

2. Presentación de documentos: Fundamentos

2.1. Modelos vectoriales
2.2. Recuperación de información
2.3. Clasificación de documentos
2.4. Clustering de documentos
2.5. Web Content, Structure y Usage Mining

3. Representación de documentos: Antecedentes y estado de la cuestión

3.1. Modelo de espacio vectorial
3.2. Funciones de pesado
3.3. Representaciones distribuídas (word embeddings)
3.4. Funciones de ranking

4. Análisis lingüístico

4.1. Análisis léxico
4.2. Eliminanción de stop-words
4.3. Lematización y truncado (stemming)
4.4. Etiquetado gramatical (Part-of-Speech tagging)
4.5. Análisis sintáctico superficial (Shallow parsing)

5. Análisis de sentimientos

5.1. Enfoques basados en lexicones
5.2. Enfoques basados en Aprendizaje Automático

 

MÓDULO 10: La Transformación Digital en el Sector Financiero (Créditos: 5)

1. Las nuevas tecnologías aplicadas al sector financiero

1.1. Big Data como paradigma de los datos en la banca y el sector financiero: Empresas data-driven
1.2. Cloud Computing
1.3. Ominicanalidad
1.4. Medios de pago
1.5. Nuevos modelos de negocio digitales en el sector bancario

2. La Banca Digital

2.1. Fundamentos de la Banca Digital
2.2. Creación de una cultura digital
2.3. Retos de la Banca Digital

3. Impacto de las Fintech en el sector financiero

3.1. Innovación y transformación de la cultura empresarial en el mundo digital
3.2. Ecosistema Fintech. Actores e implicaciones para el sector financiero
3.3. Las startups fintech
3.4. Casos de éxito y fracaso

4. Crowdfunding y Crowdlending

4.1. La financiación en la empresa. Oportunidades en el contexto de la economía colaborativa
4.2. Crowdfunding
4.3. Equity crowdfunding
4.4. Crowdlending
4.5. Aspectos regulatorios

5. Aplicaciones de Big Data y Data Science en servicios financieros

5.1. Credit Scoring
5.2. Detección del fraude
5.3. Experiencia del cliente

 

MÓDULO 11: Turismo y Smart Cities  (Créditos: 5)

1. Introducción

2. Turismo y Smart Cities (I)

2.1. Definiciones
2.2. ¿Cómo se relacionan Turismo, Smart Cities, Movilidad Y Consumo?
2.3. ¿Cómo describimos el comportamiento?
2.4. Familiaricémonos con las variables. Algunos datos sobre el Turismo y las Smart Cities
2.5. Datos Smart Cities

3. Turismo y Smart Cities (II)

3.1. El comportamiento turístico
3.2. El gasto del turismo de No Residentes. EGATUR
3.3. El tratamiento convencional del gasto turístico. EGATUR
3.4. Algunas preguntas sobre el gasto turístico. Discusión de líneas de investigación basadas en patrones situacionales.

4. Turismo y Smart Cities (III)

4.1. La promoción y la regulación del Turismo. El enfoque de las Smart Cities
4.2. Datos a tener en cuenta. Flujos de personas y flujos monetarios. Patrones de comportamiento e impacto. Elementos para un mapa de coyuntura turística
4.3. Un modelo de diferencias de potencial y un modelo reproductivo, aplicados a los flujos turísticos
4.4. Algunas preguntas sobre la promoción y la regulación del turismo. Discusión de líneas de investigación

5. Turismo y Smart Cities (IV)

5.1. APP móviles de consumo turístico
5.2. Algunas preguntas sobre APP turísticas
5.3. Ensayo de diseño de una APP orientada a la producción masiva de datos turísticos
5.4. Una matriz de situación de una red de Smart Cities en el mercado turístico. Líneas de actuación inteligente con datos

 

MÓDULO 12: La Revolución del Big Data en el Transporte (Créditos: 5)

1. La Importancia del Transporte en Nuestra Sociedad

1.1. Transporte y desarrollo: el concepto de accesibilidad
1.2. El Papel del Transporte en la Distribución Espacial de Actividades
1.3. Impactos del Transporte en la Sociedad y el Medio Ambiente
1.4. Los Grandes Retos del Transporte

2. La Revolución de los Datos: Impacto en el Sistema de Transporte

2.1. Los Medios Tradicionales de Obtención de Datos de Movilidad: Encuestas y Estadísticas
2.2. Las Nuevas Fuentes de Datos
2.3. Retos y Oportunidades de las Nuevas Fuentes de Datos

3. Modelos Predictivos de Planificación del Transporte

3.1. Modelos de Transporte
3.2. Modelos LUTI
3.3. Aportaciones de los Sistemas de Información Geográfica
3.4. Recursos en R

4. El Impacto del Big Data en la Movilidad Urbana e Interurbana

4.1. Nuevos Modelos de Negocio
4.2. Cambios en el Comportamiento de los Ciudadanos
4.3. Hacia una Mejor Planificación de lo Público

5. Oportunidades para el Sector Logístico

5.1. Detección de Fraude
5.2. Cooperación para la Intermodalidad del Transporte de Mercancías

 

MÓDULO 13: Publicidad Digital Aplicada a los Negocios (Créditos: 5)

1. La Comunicación Digital

1.1. Internet y la Empresa
1.2. La Web del Usuario como Fuente de Datos en Marketing
1.3. Diferenciación y Posicionamiento en la Web
1.4. Casos Prácticos

2. Marketing Directo

2.1. Introducción
2.2. Nuevas Herramientas
2.3. Marketing de Relaciones
2.4. Casos Prácticos

3. Marketing Y Las Nuevas Tecnologías

3.1. Marketing Móvil
3.2. Marketing Integrado
3.3. Experiencia de Usuario
3.4. Casos Prácticos

4. Plan De Marketing

4.1. Planificación Estratégica de Marketing
4.2. Caso Práctico

 

MÓDULO 14: Sector Público y Sanidad (Créditos: 5)

1. Aplicaciones del Big Data en la Estadística Oficial

1.1. Introducción: De la estadística 1.0 a la estadística 4.0
1.2. Big Data y su aportación a la estadística oficial mediante el estudio de la huella digital de la actividad humana
1.3. El Big data en el contexto del sistema estadístico internacional
1.4. El Big data en el contexto del sistema estadístico nacional
1.5. Big Data y estadística oficial: Retos que plantea
1.6. Algunos ejemplos de uso

2. Big Data en Ciencias de la Salud

2.1. Utilidades y retos del Big Data en la práctica clínica
2.2. Fuentes de datos en aplicaciones clínicas
2.3. Procesado de datos clínicos. Etapas y métricas de rendimiento diagnóstico
2.4. Análisis de casos de uso

3. Herramientas de Big Data aplicadas a la medicina

3.1. Ayuda al diagnóstico mediante redes neuronales
3.2. Combinación de expertos mediante ensemble learning
3.3. Deep learning en aplicaciones clínicas
3.4. Análisis de casos de uso

 

MÓDULO 15: Normativa de Protección de Datos (Créditos: 5)

1. Introducción

1.1. Objeto
1.2. Ámbito de aplicación
1.3. Definiciones

2. Principios relativos

2.1. Licitud del tratamiento
2.2. Consentimiento
2.3. Otros tratamientos

3. Derechos del interesado

3.1. Transparencia
3.2. Información y acceso a los datos personales
3.3. Rectificación y supresión
3.4. Limitación al tratamiento
3.5. Portabilidad
3.6. Oposición y decisiones individuales automatizadas

4. Responsable y encargado del tratamiento

4.1. Responsabilidad del responsable del tratamiento
4.2. Encargado del tratamiento
4.3. Registro de las actividades de tratamiento
4.4. Transferencias internacionales
4.5. Cooperación con la autoridad de control

5. Responsabilidad proactiva

5.1. Protección de datos desde el diseño y por defecto
5.2. Delegado de protección de datos
5.3. Códigos de conducta y certificación
5.4. Análisis de riesgos y evaluaciones de impacto
5.5. Seguridad

 

MÓDULO 16: TRABAJO FIN DE MASTER (Créditos: 10)

Aquellos estudiantes que cursen el Máster y hayan alcanzado 50 créditos, los últimos 10 créditos para la consecución del título se obtendrán con la elaboración de un trabajo final obligatorio.