¿Estás interesado en este curso?
Diplomado en Data Science and AI: Del Concepto a Desarrollo de Aplicaciones - Live - En línea
Tecnológico de Monterrey - LIVE
(
Guanajuato - Guanajuato
)
50.900 mx$
En línea
Solicita información sin compromiso a Tecnológico de Monterrey - LIVE - Guanajuato
Diplomado - Diplomado en Data Science and AI: Del Concepto a Desarrollo de Aplicaciones - Live - Guanajuato - Guanajuato - Guanajuato
Nombre
Apellido
E-mail
Teléfono
Estado
Ciudad
Nivel de estudios
¿Cuándo deseas iniciar el programa?
¿Cómo deseas ser contactado?
Preguntas
Para enviar la solicitud, debes aceptar la política de privacidad
Enviar Solicitud
* Campos obligatorios

Por favor, complete todos los campos correctamente
Loading...
Comentarios sobre Diplomado en Data Science and AI: Del Concepto a Desarrollo de Aplicaciones - Live
Contenido
Diplomado en Data Science and AI: Del Concepto a Desarrollo de Aplicaciones - Live del centro Tecnológico de Monterrey.

Modalidad: Online
Precio: $50900

Descripción.

¿Tomas decisiones importantes en tu trabajo por instinto o experiencia? ¡Fortalece aún más tu toma de decisiones con el uso del data science!

Vivirás sesiones síncronas y sesiones asíncronas, para interactuar en tiempo real con los instructores, así como para poder estudiar a tu propio ritmo.

Realizarás actividades prácticas vinculadas a los temas presentados en cada módulo y resolverás problemas enfocados a tu entorno laboral.

Al terminar tu diplomado, obtendrás una insignia digital blue con tecnología blockchain para fortalecer tu currículum digital y demostrar tus habilidades de una manera rápida y segura en plataformas digitales.


¿CÓMO VIVIRÁS TU APRENDIZAJE?.

- Enfoque a la aplicabilidad en tu entorno laboral
- Acompañamiento de tu instructor
- Gran parte del programa se imparte en sesiones sincrónicas
- Grupos pequeños para maximizar interacción con expertos
- Plataforma de aprendizaje virtual.

A quién va dirigido.

Es ideal para profesionistas encargados de generar análisis descriptivos, inferenciales, predictivos y prescriptivos; dashboards para la toma de decisiones; desarrollar una aplicación de datos y emprendimiento.

Objetivos.

Con este diplomado en modalidad live aprenderás a aplicar las herramientas tecnológicas y matemáticas para desarrollar modelos de ciencia de datos para el perfil data science jr, requeridos en organización / innovación /emprendimiento para la toma decisiones basadas en datos.


Temario.

01. FUNDAMENTOS DE PYTHON I 10 HORAS.

Diseñarás programas en lenguaje de programación Python sobre el ambiente de programación notebook, para que se cumpla con los requerimientos de la aplicación de Ciencia de Datos

1. Introducción
2. Estándares en Python
3. Estructuras de datos: lista, diccionarios, tuple, strings;
4. Estatutos condicionales
5. Control de flujo
6. Definición de funciones
7. Manejo de archivos csv: incluir identificar archivos vacíos, crear una lista de archivos a procesar
8. Ambiente de programación notebook (Jupiter y/o “Google Colab)


02. PLATAFORMAS DE APLICACIÓN SOBRE PYTHON.

1. Introducción (plataformas / frameworks)
2. Manipulación de datos en Panda
3. Manipulación de datos en Numpy
6. Definición de funciones
7. Manejo de archivos csv: incluir identificar archivos vacíos, crear una lista de archivos a procesar
8. Ambiente de programación notebook (Jupiter y/o “Google Colab)
4. Instalar bibliotecas que no estén la pre-instaladas (plataformas / frameworks)


03. MANIPULACIÓN DE DATOS EN PYTHON.

Manipularás una base de datos en la plataforma de Panda de Python que involucre llamadas (queries) a las bases de datos y estatuos para concatenar y unir bases de datos

1. Introducción
2. Algebra relacional
3. Funciones: join, merge, append
4. Ejemplo


ÁREA DE CONCENTRACIÓN 2: VISUALIZACIÓN PARA ANÁLISIS DESCRIPTIVO E INFERENCIAL Y DISEÑO DE APLICACIONES DASHBOARD IN WEB.

04. PLATAFORMAS DE VISUALIZACIÓN.

Explotarás las ventajas y desventajas que tienen Python, y las plataformas de visualización Matplotlib y Seaborn, para generar gráficas que compartan ejes horizontales (x); el eje vertical (y) puede ser compartido a la misma escala, para que se cumpla con los requerimientos de interfase de la visualización requerida.

1. Introducción
2. Validación estadística del modelo
3. Plataformas de visualización: panda, matplotlib, y seaborn
4. Gráficas superpuestas compartiendo eje horizontal (x) y vertical (y)
5. Gráficas superpuestas compartiendo eje horizontal (x) y con ejes verticales diferentes (y1, y2), cada uno con escala diferente
6. Sub-gráficas (subplots)
7. Anotaciones de texto en las gráficas
8. Diferentes tipos de gráficas para exploración de los datos: Boxplot, distribuciones, dispersiones (Scatter Plot), matriz de dispersiones (Scatter Plot Matrix)


05. INGENIERÍA DE CARACTERÍSTICAS.

Seleccionarás las características de las bases de datos más importantes por su importancia para la visualización o por su importancia en mejorar la exactitud, precisión de un modelo de datos.

1. Imputación de valores perdidos
2. Valores atípicos (handling outliers)
3. Agrupamiento en contenedores (binning)
4. Transformación logarítmica
5. Distribución de valores de una columna en múltiples columnas binarias (one-hot encoding)
6. Operaciones en grupos (groupby)
7. Separación de datos (feature split)
8. Escalamiento (Scaling)
9. Extracción de fecha (date)
10.Reducción de dimensiones (FA, PCA, IDA)


06. APLICACIÓN WEB DE CIENCIA DE DATOS.

Desarrollarás un dashboard en la plataforma Streamlit para la visualización de datos interactivos requeridos por la organización para presentar KPIs o para toma de decisiones.

1. Fundamentos de UX/UI
2. Plataforma Streamlit
3. Manipulación de datos
4. Sidebar
5. Estatutos slider, radio, selectbox
6. Estatuto caching


ÁREA DE CONCENTRACIÓN 3: MÁQUINAS INTELIGENTES.


07. APRENDIZAJE NO-SUPERVISADO.

Desarrollarás modelos inteligentes no supervisado de datos utilizando scikitlearn de Python, seleccionando el número de agrupaciones adecuadas y analizando la efectividad del modelo utilizando medidas de calidad que cumplan lo mejor posible con los requerimientos de la tarea requerida

1. Introducción
2. Medidas de calidad de los algoritmos de clusterización
3. Número de agrupaciones utilizando la gráfica K-Elbow.
4. Número de agrupaciones utilizando los valores de los coeficientes de Silhouette (gráfica Silhouette Plot)
5. Distancia relativa entre agrupaciones; importancia relativa de las agrupaciones
6. Índice Calinski-Harabasz


08. APRENDIZAJE SUPERVISADO.

Desarrollarás modelos inteligentes supervisado de datos utilizando scikit-learn de Python; seleccionar el modelo adecuado y analizar la exactitud, precisión del modelo que cumplan lo mejor posible con los requerimientos de la tarea requerida.

1. Introducción
2. Modelación de datos clásica: Árboles, Bosques, Gaussian NaiveBayes, regresión lógica, Support Vector Machine
3. Evaluación de modelos medida a utilizar: matriz de confusión, exactitud, precisión, F1, curva ROC


09. VISUALIZACIÓN DE MÁQUINAS INTELIGENTES.

Utilizarás herramientas visuales de máquinas inteligentes para desarrollar modelos de datos más exactos y/o precisos, que cumplan con los requerimientos de la necesidad del problema a resolver. 

1. Herramienta Yellow Brick
2. Hyperparameters optimization
3. Data wrapper
4. Export_graphviz from sklearn.tree
5. Decision boundaries
6. ANN Visualiser
7. Variational autoencoders (VAE)


10. PLATAFORMAS Y MÁQUINAS INTELIGENTES EN BIG DATA.

Desarrollarás modelos inteligentes supervisados de grandes volúmenes de datos utilizando PySpark de Python, seleccionarás el modelo adecuado y analizarás la exactitud, precisión del modelo, que cumplan lo mejor posible con los requerimientos de la tarea requerida.

1. Introducción
2. Estructura de datos en PySpark
3. Modelación inteligente de datos en PySpark


11. ANALÍTICA DE TEXTO.

Desarrollarás modelos inteligentes supervisado de datos de texto utilizando la plataforma máquinas inteligentes en Python, seleccionarás el modelo adecuado y analizarás la exactitud, precisión del modelo, que cumplan lo mejor posible con los requerimientos de la tarea requerida. 

1. Introducción herramientas NLTK, Spacy, TextBlob, PyTorch-NLP, Textacy
2. Introducción: aplicaciones en detección de plagio y detección de autoría
3. Análisis de frecuencias, personas, eventos
4. Conceptos de transformadores
5. Modelo inteligentes estadísticos, lingüísticos y profundos
6. Visualización de texto
7. Visualización del Corpus t-SNE: use stochastic neighbor embedding to project documents
8. Visualizar la dispersión de palabras clave en el Corpus.
9. Visualiza de documentos similares (UMAP)


12. ANALÍTICA DE REDES SOCIALES.

Desarrollarás modelos de redes de datos utilizando la NetworkX en Python; analizarás la robustez de las redes, encontrarás las personas que más se comunican, así como los líderes de las conversaciones en una red social.

1. Introducción: aplicaciones
2. Definición de nodos, vértices, y atributos
3. Tipos de redes: direccional, bidireccional, pesada, bipartita
4. Representación y manipulación de datos utilizando NetworkX
5. Métricas: distancia, alcance (reachability) y redundancia para explorar lo robusto de redes a ataques intencionales o al quitar nodos o vértices
6. Centralidad (grado, “closeness”, and “betweenness”, “page rank”

Titulación obtenida.

Diplomado en Data Science & AI: Del Concepto a desarrollo de aplicaciones - Live

Requisitos.

No se requiere de documentación específica.
Cursos que pueden interesarte