Diplomado en Big data y ciencia de datos

Estudia en la Universidad N°1 de habla hispana en Latinoamérica 2024 por QS World University Rankings

Acerca del programa:

La disponibilidad de datos masivos (Big Data) y el desarrollo de técnicas de análisis (Data Science) y de algoritmos (Machine Learning) está impactando muchas áreas de la ciencia, la ingeniería, la industria e incluso de la sociedad; desde el análisis de los datos del clima hasta la modelación de patrones de tráfico y el procesamiento de millones de clientes en línea, la enorme cantidad de data genera nuevas oportunidades y desafíos. Este diplomado permite que profesionales que no necesariamente provienen de disciplinas relacionadas con la ingeniería o la informática puedan desarrollar las habilidades necesarias para trabajar y sacar partido de las oportunidades que el escenario de Big Data genera.  


Dirigido a:

El diplomado está orientado a profesionales que deseen enfrentarse al desafío de sacar el mejor provecho posible a datos de gran tamaño y complejidad, a través de nuevas e innovadoras técnicas, con el objetivo de impactar la toma de decisiones claves en sus negocios. Está orientado a profesionales como Ingenieros, Economistas, y otros profesionales licenciados y/o con experiencia en áreas afines, que requieren conocimientos y habilidades en la materia.


Jefe de Programa

Jaime Navón, PhD.

Ph.D. Computer Science, University of North Carolina at Chapel Hill. Master of Science, Technion-Israel Institute of Technology. Ingeniero Civil Electricista, Universidad de Chile. Profesor Asociado del Departamento de Ciencia de la Computación de la Escuela de Ingeniería UC
linkedin

Equipo Docente

keyboard_arrow_down

Néstor Campos

Gerente de Proyectos Estratégicos y Jefe de Arquitectura de Soluciones en Metric Arts. Con títulos en Ingeniería de Ejecución en Informática (DuocUC) y Máster en Ingeniería Informática (U. Andrés Bello). Cuenta con más de 8 años de experiencia en el desarrollo de software en todas sus etapas (desde el diseño para la puesta en producción), pasando por proyectos de Inteligencia de Negocios y Big Data, específicamente en el diseño de arquitecturas confiables y tolerante a fallos para el procesamiento de datos para su posterior consumo por otras áreas de negocio, tanto en servidores internos de empresas como en servidores disponibles en plataformas en la nube (Azure, Google y Amazon).

Roberto González

Jefe de Investigación equipo de Analítica Avanzada y Visión Computacional, EY Chile, LAS Regional Tech Hub. PhD Astrofísica UC.

Miguel Jorquera

Magíster en estadística, licenciado en matemática y profesor de enseñanza media, UC. Senior Data Scientist Consultant en EY.

Jaime Navón, PhD.

Ph.D. Computer Science, University of North Carolina at Chapel Hill. Master of Science, Technion-Israel Institute of Technology. Ingeniero Civil Electricista, Universidad de Chile. Profesor Asociado del Departamento de Ciencia de la Computación de la Escuela de Ingeniería UC.

Sebastián Raveau

Doctor en Ciencias de la Ingeniería e Ingeniero Civil de Industrias, mención en Transporte, UC. Investigador del Centro de Desarrollo Urbano Sustentable (CEDEUS) y del BRT+ Centre of Excellence. Profesor Asistente del Departamento de Ingeniería de Transporte y Logística UC.

Rodrigo Sandoval

Ingeniero Civil, mención Ciencias de la Computación y Master of Science, Pontificia Universidad Católica de Chile (UC). Profesor del Departamento de Ciencia de la Computación UC en las áreas de Ingeniería de Software e Inteligencia Artificial, en pregrado y postgrado. CEO y fundador de R: Solver.

Joshua Kunst 

Magíster en Estadísticas de la UC, dedicado a la ciencia de datos, modelamiento predictivo y visualización de datos

Hernán Valdivieso

Magíster en Ciencias de la Ingeniería e Ingeniero Civil en Computación, UC. Profesor Instructor del Departamento de Ciencia de la Computación de la Escuela de Ingeniería UC. Su área principal de trabajo es la docencia y el desarrollo de técnicas de visualización.

* EP (Educación Profesional) de la Escuela de Ingeniería se reserva el derecho de remplazar, en caso de fuerza mayor, a él o los profesores indicados en este programa; y de asignar al docente que dicta el programa según disponibilidad de los profesores.


Descripción

Para enfrentar los nuevos desafíos de datos, es necesario saber almacenar, administrar, procesar y analizar grandes cantidades de datos. Pero los desafíos están más allá de la escala, dado que la complejidad de los datos requiere nuevas y poderosas técnicas analíticas. Finalmente, es crucial tener habilidades para comunicar e interpretar los resultados de este análisis. El manejo de estas habilidades cae bajo el dominio de los Data Scientists o Data Engineers profesionales que son altamente demandados por el mercado. El diplomado entrega las competencias básicas para poder comenzar a trabajar con datos rápidamente o iniciarse en el camino hacia convertirse en un especialista en el futuro.

Este diplomado es de tipo presencial, complementado con actividades no presenciales y horas de estudio. Las clases son tanto de tipo expositivo como talleres aplicados con metodología hands on. Todas las actividades teóricas y prácticas buscan potenciar las habilidades de capacidad de análisis, toma de decisiones y el trabajo en equipo, a través de la presencia y participación del alumno en las sesiones de los cursos. El Diplomado cuenta además con un Seminario de introducción a Big Data, Data Science e Inteligencia Artificial.

Requisitos de Ingreso

El alumno debe estar en posesión de un grado académico o de un título profesional Universitario:

  • Licenciatura en Ciencias de la Ingeniería o Título de Ingeniería Civil.
  • Otro Grado Académico o título Profesional Universitario en una disciplina afín, como Ingeniería Comercial, Economía, Agronomía, etc., cuyo nivel sea al menos equivalente al necesario para obtener el Grado de Licenciado.
  • Experiencia laboral de 2 años en al área o áreas afines.


Objetivos de Aprendizaje

  1. Analizar tecnologías claves referentes a la ciencia de datos y analíticas de negocios: minería de datos, aprendizaje de datos, técnicas de visualización, modelamiento predictivo y estadísticas. 
  2. Identificar lenguajes de programación estadística y herramientas de Big Data, y aplicarlas en casos prácticos.
  3. Aplicar principios de ciencia de datos al análisis de problemas de negocio, utilizando herramientas y tecnologías de punta. 

Metodología

Lugar de realización: Streaming, plataforma Zoom + Moodle

* El programa se inicia con un quórum mínimo de participantes. Para programas presenciales, las salas asignadas pueden variar. En caso de fuerza mayor, el programa se reserva el derecho a realizar clases por streaming, modificar fechas, lugar y/o profesores. Todas las modalidades del programa (dual, presencial y streaming) tienen el mismo valor.

Desglose de cursos

Seminario: Introducción a Big Data, Data Science e Inteligencia Artificial

Seminar: Introduction to Big Data, Data Science and Artificial Intelligence

Horas cronológicas: 4 

Resultados del Aprendizaje:

  1. Identificar las principales diferencias Big Data, Data Science e Inteligencia Artificial y qué esperar de éstos.
  2. Reflexionar sobre el impacto de estas tecnologías y técnicas en los negocios y la vida actual

Contenidos:

  • Tendencias Tecnológicas y la estrategia: Big Data, IoT, Análisis de Datos, Inteligencia Artificial y Machine Learning
  • Big Data: Definiciones, arquitecturas , Map-Reduce, Hadoop, Spark
  • Bases de Datos, Data Warehouses y Data Lakes

Metodología de enseñanza y aprendizaje:

  • Clases expositivas y análisis de situaciones. 

Evaluación de los aprendizajes:

  • No aplica

*Este seminario, constituido en un seminario sin créditos, se podrá programar adicionalmente fuera del Diplomado y constituirá un apoyo en la difusión del mismo, permitiendo a los asistentes convalidar su ejecución al ingresar al programa.

Curso 1: Arquitectura e Infraestructura para Big Data y Data Science

Nombre en inglés: Architecture and Infrastructure for Big Data and Data Science 

Horas cronológicas: 24

Créditos: 5.

Resultados del Aprendizaje:

  1. Comprender las principales tecnologías asociadas a Big Data y reconocer bajo qué contexto utilizarlas.
  2. Diseñar arquitecturas de alto nivel en proyectos relacionados a Business Intelligence y Big Data.
  3. Generar ambientes de alta disponibilidad para proyectos de Data Science y Big Data.
  4. Identificar los conceptos de infraestructura Big Data en servicios de consumo on demand (servicios en la nube).

Contenidos:

  • Tecnologías y servicios en la nube para BI, Big Data y Data Science.
  • Procesamiento de datos eficiente con tecnologías Big Data
  • Diseño de arquitecturas de alta disponibilidad para BI y Big Data
  • Diseño y uso de infraestructura de alto rendimiento para algoritmos de Data Science.
  • Estrategias y mejores prácticas en el desarrollo de componentes para arquitecturas de procesamiento masivo de datos
  • Diferencias entre soluciones de datos tradicionales y soluciones de Big Data
  • Gestión operativa de la infraestructura en un modelo de servicio continuo

Metodología de enseñanza y aprendizaje:

  • El aprendizaje en cada etapa del curso se basará en un inicio en la enseñanza de conceptos teóricos asociados a Big Data, Business Intelligence y Data Science, para luego continuar con ejemplos de proyectos y formas de abordar las soluciones a las problemáticas, para finalmente entregar ejercicios de casos que los estudiantes tendrán que desarrollar en clases.

Evaluación de los aprendizajes:

  • 1 prueba teórica, para evaluar el aprendizaje de los conceptos técnicos y tecnologías (20%)
  • 2 análisis de casos basados en proyectos, para medir la capacidad de entender los problemas de cada proyecto y generar soluciones de alto nivel para éstos, tanto a nivel arquitectónico como de infraestructura (40% cada uno)

Curso 2: Programación en R para Ciencia de Datos

Nombre en inglés: Programming for Data Science

Horas cronológicas: 24

Créditos: 5

Resultados del Aprendizaje:

  1. Revisar conceptos básicos de programación usando el lenguaje R
  2. Usar el lenguaje R como una herramienta para analizar datos
  3. Utilizar los sistemas gráficos de R para visualización de datos
  4. Analizar conjuntos de datos utilizando los principios del análisis exploratorio de datos
  5. Explicar la información visual contenida en los gráficos que generan R
  6. Exponer los resultados de un análisis de datos

Contenidos:

  • Conceptos generales de programación en R: variables, estructuras de control, condicionales
  • Funciones y paquetes
  • Vectores y Matrices
  • Listas
  • Data Frames
  • Importación, limpieza y filtrado de datos
  • Dataframes: construcción y mezcla
  • Visualización gráfica
  • Análisis estadístico de datos con R: población y muestreo, tipos de datos, tablas de frecuencias, estadísticos descriptivos, coeficiente de posición y dispersión, errores de los procesos de medición, aplicaciones
  • Distribuciones de probabilidad
  • Regresión lineal con R
  • Regresión logística con R
  • Series de tiempo

Metodología de enseñanza y aprendizaje: 

  • El curso se desarrollará en clases expositivas y talleres prácticos.

Evaluación de los aprendizajes: 

  • 2 controles 30%
  • 3 talleres 70%

Curso 3: Minería de Datos

Nombre en inglés: Data Mining

Horas cronológicas: 24

Créditos: 5

Resultados del Aprendizaje:

  1. Identificar las principales teorías y prácticas de la emergente área de Minería de Datos
  2. Desarrollar soluciones a problemas reales de Big Data y ciencia de datos que involucren la necesidad de técnicas de Minería de Datos
  3. Implementar soluciones usando herramientas de software de Minería de Datos aplicándolas en datos reales.

Contenidos:

  • Introducción: El concepto, el proceso y los problemas en que es relevante.
  • Análisis de la canasta de mercado y reglas de asociación
  • Clasificación: Árboles de Decisión, K-vecinos cercanos.
  • Clustering: K-Means, Mean-Shift y Clustering aglomerativo.
  • Selección de modelos (hold out, cross validation)

Metodología de enseñanza y aprendizaje:

  • Clases expositivas. 
  • Actividades prácticas en laboratorios computacionales para aplicar las técnicas aprendidas en datos reales. Se les entrega a los alumnos una base de datos (dataset) y se trabaja en ella extrayendo patrones, clusters y otras operaciones típicas de minería de datos. Se utiliza el lenguaje de programación aprendida (R) y se buscan conclusiones de utilidad para un determinado objetivo. 
  • Lecturas individuales.

Evaluación de los aprendizajes:

  • Control 1 20%
  • Control 2 20%
  • Laboratorio computacional 1 30%
  • Laboratorio computacional 2 30%

Curso 4: Visualización de Datos Aplicada

Nombre en inglés: Applied Data Viewing 

Horas cronológicas: 24

Créditos: 5

Resultados del Aprendizaje:

  1. Identificar la importancia de la visualización de datos.
  2. Aplicar los conceptos fundamentales de las técnicas de visualización, comunicación y diseño efectivo.
  3. Manejar técnicamente los principales programas de visualizaciones.
  4. Exponer los datos de manera gráfica.
  5. Implementar reportes y tableros de manera efectiva.

Contenidos:

  • Unidad 1: Teoría sobre Visualización de Datos
  • Introducción: breve historia, disciplinas de comunicación gráfica e importancia de visualizar datos
  • La “des-Excelización” y democratización de datos en la empresa
  • Condiciones necesarias para una visualización: datos y caso
  • Objetivos de la visualización: contenido vs usuario, acceso, interacción y actualización
  • Fuentes de información: sistemas transaccionales, sistemas web, datos públicos
  • Preparación de datos: integridad, calidad, homologación
  • Generalidades sobre tipos de datos: medidas, dimensiones
  • Atributos a usar en una visualización
  • Análisis de los tipos de gráficos más comunes para representar datos
  • Exploración visual de datos
  • Indicadores, Reportes y Dashboards
  • Presentación de las herramientas principales del mercado
  • Visualizaciones avanzadas: scripting 
  • Unidad 2: Visualización de Datos Aplicada
  • Datos de empresa: reportes transversales a industrias y vistas especificas
  • Revisión de casos de uso de Dashboards generales
  • Revisión de casos de uso específicos por industrias
  • Revisión de casos de uso por niveles de usuarios: analistas vs C-level

Metodología de enseñanza y aprendizaje:

  • Clases teóricas
  • Análisis interactivos de casos
  • Actividades prácticas

Evaluación de los aprendizajes:

  • Control Unidad 1 30%
  • Actividad práctica Unidad 2 30%
  • Actividad práctica proyecto grupal Unidad 2 40%

Curso 5: Ciencia de Datos y sus Aplicaciones

Nombre en inglés: Data Science and its Applications 

Horas cronológicas: 24

Créditos: 5

Resultados del Aprendizaje:

Evaluar oportunidades de negocio accionables a partir del análisis de datos.

Aplicar los conceptos y métodos fundamentales de Data Science a problemas reales de negocio, interpretando adecuadamente los resultados y generando acciones de valor agregado.

Desarrollar modelos descriptivos, predictivos y prescriptivos sobre datos de diversas industrias.

Contenidos:

  • La evolución de la ciencia de datos y el análisis predictivo para el apoyo a la toma de decisiones
  • Las características que definen a una organización data-driven
  • Cómo las empresas modernas estás generando productos y servicios analíticos
  • Metodologías de análisis de datos y búsqueda de patrones
  • Generación de modelos descriptivos, análisis de casos reales y trabajo práctico
  • Generación de modelos predictivos y prescriptivos, análisis de casos reales y trabajo práctico.
  • Cómo interpretar modelos analíticos para tomar mejores decisiones de negocio

Metodología de enseñanza y aprendizaje:

El curso se desarrollará en clases expositivas y talleres prácticos. El alumno, para complementar su aprendizaje, deberá participar activamente en clases, revisar material complementario y desarrollar proyectos prácticos.

  • Clases expositivas.
  • Talleres y desarrollo de proyectos prácticos
  • Estudio y discusión de conceptos en clases

Evaluación de los aprendizajes:

La evaluación del curso consistirá en la realización de dos proyectos grupales en los que se aplicarán los contenidos aprendidos en el curso y una nota de participación en clases. La nota final del curso se calculará de la siguiente forma: 

  • 30% Nota de participación
  • 70% Promedio proyectos prácticos

Curso 6: Fundamentos y Aplicaciones de Machine Learning y Deep Learning

Nombre en inglés: Machine Learning and Deep Learning Fundamentals and Applications

Horas cronológicas: 24

Créditos: 5

Descripción del curso:

La ciencia de datos y, particularmente, el aprendizaje automático o machine learning, es una disciplina que ha demostrado significativos avances en el desarrollo de soluciones tecnológicas avanzadas, e inclusive, de nuevos e innovadores negocios.

En este curso se explican los conceptos, modelos, y herramientas más conocidas, desde una perspectiva práctica y de potencial aplicación, a una audiencia cuyo foco está en entender la ciencia, la tecnología y la entrega de valor de negocio potencial gracias a la ciencia de datos. En el contenido, se cubre desde las aplicaciones más conocidas del aprendizaje automático, hasta el uso de modernos modelos de aprendizaje profundo, para resolver algunas de las problemáticas industriales más relevantes hoy en día. Junto con esto, se incluye la explicación de las mejores prácticas actuales para desarrollar estrategia y proyectos basados en estas técnicas, considerando aspectos organizacionales, costos, y recursos.

El curso se desarrolla combinando clases expositivas, con ejercicios prácticos, que permiten experimentar el uso de las diferentes herramientas vistas en el curso, incluyendo evaluaciones individuales de conocimientos.

Resultados del aprendizaje:

  1. Distinguir potencias y limitaciones del Machine Learning y Deep Learning para la resolución de problemas en diferentes industrias.
  2. Detectar situaciones y su contexto en las cuáles estas técnicas resolverían problemas de gran valor de negocio.
  3. Proponer un plan estratégico de desarrollo de tecnología basada en ciencia de datos, alineado con la estrategia corporativa.
  4. Utilizar modelos de redes neuronales profundas en contextos de Visión Computacional que sean capaces de detectar objetos e interpretar contenido de imágenes. 
  5. Aplicar modelos de procesamiento de lenguaje natural para la resolución de problemas en textos no-estructurados de diferentes tipos y orígenes. 

Contenidos: 

  • Introducción, conceptos, gestión de datos.
    • Metodología de desarrollo de modelos (CRISP-DM, KDD, otros)
    • Pre-procesamiento de datos.
  • Evaluación y selección de modelos 
    • Workflow de evaluación. Hold out, Cross Validation, refinamiento de hiper-parámetros.
    • Métricas de evaluación. Accuracy, Precision, Recall, RMSE
  • Modelos de aprendizaje automático supervisado
    • Modelos de regresión numérica. Regresión Lineal y no-lineal.
    • Modelos de clasificación, capacidades y características, así como ejemplos de aplicación. Entre los modelos: Árbol de Decisión, Random Forest, KNN, Naive Bayes, SVM, Redes Neuronales.
  • Modelos de aprendizaje no-supervisados
    • K-Means, DBSCAN, HDBSCAN
  • Modelos de Aprendizaje Profundo
    • Introducción y conceptos esenciales.
    • Ejemplos de aplicaciones en visión computacional y en procesamiento de lenguaje natural con modelos pre-entrenados (ej: YOLO)
    • Características de las redes neuronales y conceptos básicos (álgebra lineal, funciones de mapeo).
    • Diferentes topologías de redes profundas: FFN, Convolucional.
    • Aplicación en contextos de información No-Estructurada: procesamiento de video (Visión Computacional), procesamiento de texto natural (NLP y NLU), Word Embedding, Redes Neuronales Convolucionales.
    • Modelos no-supervisados Profundos: Autoencoders, GAN, y especialmente, Transformers y modelos generativos.

Metodología de enseñanza y aprendizaje:

  • Clases expositivas, complementando los conceptos y teoría con ejemplos reales y prácticos en industrias como fábricas, logística, financieras, servicios, retail, entre otros.
  • Actividades en clases, tanto individuales, como grupales.
  • En estos trabajos, los alumnos desarrollarán ejemplos relacionados con los elementos vistos en clases, utilizando alternativamente R y Python, así como las herramientas R-Project y Google Colaboratory Notebooks.

Evaluación de los aprendizajes:

  • Un control de conocimientos individual -20%
  • Un trabajo grupal de ejercicio - 30% 
  • Examen final individual – 50% 

Requisitos Aprobación

El diplomado será evaluado con una sola nota de escala de 1,0 (uno coma cero) a 7,0 (siete comas cero). La aprobación será con nota 4,0 (cuatro comas cero) o superior del promedio simple de las notas finales de todos los cursos. 

Para la aprobación el diplomado, el alumno debe cumplir con dos requisitos:

  • Mínimo de asistencia o conexión del 75% a todo el diplomado.
  • Aprobar todos los cursos con nota mínima 4,0.

Para aprobar los programas de diplomados se requiere la aprobación de todos los cursos que lo conforman y en el caso que corresponda, de la evaluación final integrativa.

Los alumnos que aprueben las exigencias del programa recibirán un certificado de aprobación digital otorgado por la Pontificia Universidad Católica de Chile.

El alumno que no cumpla con una de estas exigencias reprueba automáticamente sin posibilidad de ningún tipo de certificación. 

*En caso de que un alumno repruebe un curso perteneciente a un diplomado, en Educación Profesional Ingeniería UC ofrecemos la oportunidad de realizar un nuevo intento. Para ejercer este derecho, el alumno deberá pagar un valor de 3 UF por curso, e indicar la fecha de la versión en la que desea matricularse. La gestión debe realizarse dentro de un máximo de 2 años a contar de la fecha de inicio del diplomado original, y es factible para un máximo de 2 cursos por diplomado.

Proceso de Admisión

Las personas interesadas deberán completar la ficha de postulación que se encuentra al costado derecho de esta página web y enviar los siguientes documentos al momento de la postulación o de manera posterior a la coordinación a cargo: 

  • Fotocopia Carnet de Identidad.
  • Fotocopia simple del Certificado de Título 
  • Curriculum Vitae actualizado.

Cualquier información adicional o inquietud podrás escribir al correo programas@ing.puc.cl.

VACANTES: 45

Con el objetivo de brindar las condiciones de infraestructura necesaria y la asistencia adecuada al inicio y durante las clases para personas con discapacidad: Física o motriz, Sensorial (Visual o auditiva) u otra, los invitamos a informarlo. 

El postular no asegura el cupo, una vez inscrito o aceptado en el programa se debe pagar el valor completo de la actividad para estar matriculado.

No se tramitarán postulaciones incompletas.

Puedes revisar aquí más información importante sobre el proceso de admisión y matrícula


Fechas disponibles

Los detalles del programa pueden variar en cada fecha de edición

Fecha Horario Lugar Valor
12 junio 2024 - 12 diciembre 2024 Lunes y miércoles de 18:30 a 21:45 horas $2.500.000 Ver más
3 septiembre 2024 - 9 marzo 2025 Martes y jueves de 18:30 a 21:45 horas $2.500.000 Ver más

¿Te parece interesante este programa?

No