Diplomado en Big Data para la Toma de Decisiones - Online

El Diplomado en Big Data para la Toma de Decisiones entrega las herramientas necesarias para desarrollar una visión estratégica que permita mejorar la operación de las organizaciones y obtener ventajas competitivas en la era de la economía digital por medio de descubrir, administrar y analizar grandes volúmenes de datos.


Descripción

El real mejoramiento de la eficiencia organizacional está relacionado con la implementación de soluciones tecnológicas que permitan agilizar la toma de decisiones en base a información cuantitativa y cualitativa relevante en tiempo real. El uso eficiente de dicha información requiere de una adecuada administración de grandes volúmenes de datos por minuto, que demandan extensos y rigurosos análisis junto con métricas e indicadores cada vez más exactos. El análisis de grandes volúmenes de datos permite extraer tendencias y patrones complejos de información, con enormes implicancias estratégicas, permitiendo predecir mejor y transformando la forma en la que se hacen hoy en día los negocios.

La metodología de enseñanza y aprendizaje para este curso online consiste en técnicas metodológicas activas, donde el participante puede interactuar con sus pares y profesor-tutor a través de los recursos tecnológicos que provee la plataforma educativa virtual provista para el diplomado.

Dirigido a

El diplomado está dirigido a profesionales, ejecutivos o emprendedores que requieran tomar decisiones eficaces de gestión basado en los beneficios del uso de tecnologías relacionadas a Big Data y con esto puedan incrementar significativamente las ventajas competitivas en la agilidad de su organización, área funcional o emprendimiento que tengan en curso. Así también, el diplomado está dirigido a los profesionales que requieran conocer los fundamentos de Big-Data para liderar proyectos de gestión que tengan como base el uso cuantitativo de información para así lograr tener una mejor precisión e impacto en la toma de decisiones de la empresa.

Prerrequisitos

Profesional universitario, licenciado o egresado de instituto profesional, se sugiere dominio básico de Excel y manejo de internet a nivel usuario.

Objetivo de aprendizaje

- Explicar los fundamentos, principios y últimas tendencias en plataformas computacionales relacionadas a Big Data.
- Reconocer las aplicaciones y herramientas analíticas de ciencias de datos y estadística para la predicción, optimización y visualización de información.
- Formular y evaluar proyectos de aplicación de Big Data en una organización.

Desglose de cursos

Nombre del curso: Big Data en Empresas y Organizaciones
Nombre en inglés: Big Data in companies and organizations
Horas cronológicas: 75; Créditos: 5

Resultados de Aprendizaje

  1. Comprender de manera general qué es Big Data y cuáles son sus herramientas.
  2. Desarrollar estrategias para capturar y crear valor desde el Big Data.
  3. Estructurar los principales elementos en la realización de proyectos de Big Data.
  4. Entender las herramientas utilizadas y las diferentes alternativas de arquitectura y software.
  5. Comprender los perfiles profesionales necesario, sus habilidades y formas de administrar proyectos digitales.
  6. Conocer casos de uso en diferentes negocios y estimar el impacto económico para la empresa.

Contenidos:

-                 Introducción general al Big Data en una compañía u organización.

  • ¿Qué es?
  • ¿Que no es?
  • ¿Quién está a cargo?
  • ¿Qué debería hacer como Chief Data & Analytics Officer en mis primeros 90 días?

-                 Cómo evaluar la aplicabilidad en la empresa, tipos de problemas de negocios, datos disponibles, ejemplos de caso de uso, armado de un caso de negocio.

  • ¿Qué proyectos son de interés?
  • ¿Cuáles son los posibles?
  • ¿Cómo se financian estos proyectos?

-                 Data Science usando Big Data como deporte de equipo. Roles y funciones.

  • ¿Cómo se arma un equipo de Data Science?
  • Roles y responsabilidades.
  • Habilidades necesarias.
  • Estrategia de Crecimiento.
  • Administración de Proyectos Digitales.
  • Agile

-                 Herramientas de Big Data – Arquitectura.

  • ¿Con qué herramientas se cuenta?
  • Diferentes arquitecturas de Big Data: On premise, Cloud, Híbridos.
  • ¿Cómo se gobiernan los datos?
  • ¿Cómo se protege la privacidad del Dato y la Seguridad?
  • ¿Son los datos suficientes y representativos?

-                 Modelos Analíticos y herramientas.

  • ¿Cuáles son los diferentes tipos de modelos de machine learning?
  • Herramientas: extracción de datos, entrenamiento de modelos, visualización.
  • ¿Cómo es el paso a Producción?

-                 Ejemplos de Casos de Uso, nuevas tendencias.
-                 Armado de una evaluación económica de un caso de uso.

Metodología de enseñanza y aprendizaje:
La metodología se presenta más adelante ya que para todos los cursos es la misma.

Evaluación de los Aprendizajes:
-                 Controles                                                          (15%).

-                 Foros de discusión                                          (20%).

-                 Trabajo grupal                                                  (25%).

-                 Test on-line o presencial                               (40%).

Nombre del curso: Modelamiento Estadístico y Sistemas Recomendadores
Nombre en inglés: Statistical Modeling and Recommender Systems
Horas cronológicas: 75; Créditos: 5

Resultados de Aprendizaje
Al finalizar este curso los/las estudiantes debieran ser capaces de: 

  1. Explicar el fundamento del modelamiento estadístico para el manejo de grandes volúmenes de datos.
  2. Explicar el proceso de modelamiento y sus distintas fases para la implementación de soluciones.
  3. Generar flujos de trabajo de datos para proyectos de Big Data en la organización.
  4. Realizar inferencias estadísticas sobre datos para aumentar el impacto positivo en la toma de decisión de una organización, utilizando herramientas computacionales (software R).

Contenidos:
-                 Preprocesamiento de datos

  • Calidad de datos
  • Limpieza de datos
  • Integración de datos
  • Reducción de datos
  • Transformación de datos

-                 Métodos de clasificación

  • El proceso de clasificación
  • Árboles de decisión
  • Bayes ingenuo
  • K-vecinos más cercanos
  • Métodos conjuntos: Bagging, Boosting y Random Forests

-                 Métodos de Agrupación

  • Definición y propiedades
  • Métodos de partición: K-means y K-medoides
  • Métodos Jerárquicos

-                 Sistemas Recomendadores

  • Impacto y casos importantes
  • Filtrado colaborativo
  • Filtrado basado en contenido
  • Métodos híbridos

Metodología de enseñanza y aprendizaje:
La metodología se presenta más adelante ya que para todos los cursos es la misma.

Evaluación de los Aprendizajes:

-                 Controles                                                          (15%).

-                 Foros de discusión                                          (20%).

-                 Trabajo grupal                                                  (25%).

-                 Test on-line o presencial                               (40%).

Nombre del curso: Visualización de Datos
Nombre en inglés: Data Visualization
Horas cronológicas: 75; Créditos: 5

Resultados de Aprendizaje
Al finalizar este curso los/las estudiantes debieran ser capaces de:

  1. Elaborar estrategias de alto impacto para la comunicación de grandes volúmenes de datos.
  2. Diseñar mecanismos de síntesis y visualización de datos de valor para apoyar la toma de decisiones a través de una correcta.
  3. Diseñar representaciones perceptibles que permitan amplificar el conocimiento organizacional.
  4. Reconocer las herramientas y metodologías para el desarrollo de proyectos de visualización de datos.

Contenidos:

-                 ¿Qué es la visualización de datos?

  • De qué trata la visualización
  • Breve Contexto
  • Breve historia de la visualización
  • Panorama de la visualización hoy
  • Una definición operativa

-                 ¿Para qué sirve la visualización de datos?

  • Visualización para amplificar el conocimiento
  • Para qué nos sirve la visualización
  • Qué queremos mostrar
  • El proceso interactivo

-                 ¿Cómo trabajar la visualización de datos?

  • Proceso de Visualización
  • Representación: Percepción
  • Representación: Diseño y Codificación Visual
  • Qué no hacer
  • Evaluación

-                 ¿Cómo continuar la visualización?

  • Recomendaciones para profundizar
  • Herramientas Recomendadas
  • Autores Recomendados
  • Recordando los objetivos de la Visualización

Metodología de enseñanza y aprendizaje:
La metodología se presenta más adelante ya que para todos los cursos es la misma.

Evaluación de los Aprendizajes:

-                 Controles                                                          (15%).

-                 Foros de discusión                                          (20%).

-                 Trabajo grupal                                                  (25%).

-                 Test on-line o presencial                               (40%).

Nombre del curso: Manejo de Grandes Volúmenes de Datos (Big Data)
Nombre en inglés: Managing Big Data
Horas cronológicas: 75; Créditos: 5

Resultados de Aprendizaje
Al finalizar este curso los/las estudiantes debieran ser capaces de:

  1. Modelar datos usando herramientas de bases de datos relacionales (SQL), bases de datos NoSQL y bases de datos distribuidas.
  2. Estimar la necesidad de cambiar la infraestructura de los datos desde un modelo clásico centralizado (tipo SQL) a un modelo de Big Data distribuido.
  3. Identificar las herramientas de manejo de datos adecuadas para el contexto de su empresa.

Contenidos:

-                 Bases de datos relacionales

  • Diversos fuentes de datos (Excel, CSV, texto plano, páginas web,…)
  • Organización clásica de los datos: Bases de datos relacionales
  • Lenguaje SQL
  • Propiedades de una base de datos relacional: ACID
  • Integración de los datos

-                 Bases de datos distribuidas

  • Paso al mundo de Big Data (limitaciones de una base de datos relacional)
  • Un sistema distribuido
  • Propiedades de sistemas distribuidos: CAP y BASE
  • Limitaciones de sistemas distribuidos: ACID vs CAP
  • Resolución de fallas en un sistema distribuido usando el consenso distribuido

-                 Bases de datos NoSQL

  • Características de sistemas NoSQL
  • Bases de datos de búsqueda: Amazon Dynamo
  • Bases de datos de documentos: MongoDB
  • Bases de datos de grafos: Neo4J

-                 Procesamiento masivo de datos

  • Distribución de los datos (Google distributed File System)
  • Map-reduce
  • Infraestructura de Apache Hadoop
  • Apache Pig: lenguaje de scripting para Hadoop

Metodología de enseñanza y aprendizaje:
La metodología se presenta más adelante ya que para todos los cursos es la misma.

Evaluación de los Aprendizajes:

-                 Controles                                                          (15%).

-                 Foros de discusión                                          (20%).

-                 Trabajo grupal                                                  (25%).

-                 Test on-line o presencial                               (40%).

Metodología de enseñanza y aprendizaje:
Los contenidos del diplomado están agrupados en cursos de dos meses de duración cada uno. El año académico se divide en cinco bimestres programados desde marzo a diciembre.

Dado que los cursos no son prerrequisito uno de otro, los alumnos tienen la opción de ingresar al diplomado en cualquier bimestre y los cursos que no hayan alcanzado a realizar los podrán tomar al año siguiente.

Descripción cursos 5 créditos:
En cada curso se desplegarán semanalmente las clases, contenidos, actividades y evaluaciones. Las clases se estructuran bajo una lógica de diseño instruccional centrada en el estudiante, que contribuye a la motivación y facilita su aprendizaje. Se busca que estén siempre presente tres elementos: contenido, evaluación y reflexión. El componente de reflexión es clave para generar comunidades de aprendizaje activas que permitan compartir experiencias.

En el caso del contenido, este se organiza a través de recursos interactivos que integran videos, esquemas, artículos, lecturas complementarias y preguntas formativas, todos dispuestos para facilitar el aprendizaje de los estudiantes.

En cuanto a las estrategias de evaluación, estas se organizan en cuestionarios con preguntas de opción múltiple, cuyo propósito es medir el nivel de aprendizaje logrado en cada una de las clases. Complementariamente, se dispone de foros en donde se evaluará tanto la participación como la calidad de dicha participación, brindando de esta forma al estudiante la oportunidad de intercambiar y fundamentar sus opiniones respecto a temas de actualidad asociados al contenido. Finalmente, el curso contempla la entrega de un trabajo, el que debe ser desarrollado a lo largo del curso, en donde se espera que el estudiante tenga la oportunidad de aplicar los conocimientos adquiridos y un examen final.

Cada curso cuenta con tutores de contenidos cuya función es dar respuesta a todas las preguntas sobre la materia tratada, ya sea directamente, o bien, sirviendo de puente con el profesor responsable del curso.

Cada curso además cuenta con una clase en vivo donde los alumnos podrán reforzar y resolver dudas. La asistencia a dicha clase es obligatoria y los alumnos podrán participar mediante streaming o asistiendo presencialmente en los lugares y horarios de realización que defina la Clase Ejecutiva.

Para consultas técnicas (soporte técnico) o administrativas (coordinación asuntos estudiantiles) los alumnos pueden contactarse con la clase ejecutiva escribiendo mediante el formulario de “contacto Coordinación” dispuesto en el curso, el email alumnosuc@claseejecutiva.cl o llamando al número (+562) 2840 0821 en horario hábil (lunes a viernes de 9:00 a 18:00).

Equipo Docente

JEFE DE PROGRAMA
DOMAGOJ VRGOC
Profesor Asistente del Instituto de Ingeniería Matemática y Computacional de la Pontificia Universidad Católica. Doctor en Computación de la Universidad de Edimburgo, Reino Unido. Sus áreas de interés son manejo de datos, la Web Semántica y Teoría de Computación. Su tesis de doctorado fue destacada por la British Computing Society como una de las mejores de su generación. Es autor de más de 30 papers técnicos y ha sido parte de los comités de programas de las conferencias más importantes en bases de datos, la Web, e Inteligencia Artificial, como ACM PODS, ICDT, WWW, ISWC, IJCAI, entre otros.

EQUIPO DOCENTE
ALEJANDRO JARA
Ph.D. en Matemáticas de la Universidad Católica de Leuven, Bélgica. Profesor Asociado del Departamento de Estadísticas de la UC.

CLAUDIO MORCHÓN
Master en Ingeniería Matemática, especialidad en Ciencias y Técnicas Estadísticas e Investigación Operativa, Universidad Carlos III de Madrid. Contador Público y Master en Finanzas, Universidad de San Andrés.

RICARDO VEGA
Diseñador y artista, MFA Technology (Parsons, The New School, Nueva York). Profesor de la Escuela de Diseño de la Universidad Católica. Trabaja en temas relativos a la visualización de información, programación aplicada en el diseño y el arte, con especial énfasis en las implicancias sociales y culturales de la tecnología.

DOMAGOJ VRGOC
Profesor Asistente del Instituto de Ingeniería Matemática y Computacional de la Pontificia Universidad Católica. Doctor en Computación de la Universidad de Edimburgo, Reino Unido. Sus áreas de interés son manejo de datos, la Web Semántica y Teoría de Computación. Su tesis de doctorado fue destacada por la British Computing Society como una de las mejores de su generación. Es autor de más de 30 papers técnicos y ha sido parte de los comités de programas de las conferencias más importantes en bases de datos, la Web, e Inteligencia Artificial, como ACM PODS, ICDT, WWW, ISWC, IJCAI, entre otros.

* EP (Educación Profesional) de la Escuela de Ingeniería se reserva el derecho de remplazar, en caso de fuerza mayor, a él o los profesores indicados en este programa.

Metodología

Se utilizará una plataforma basada en Moodle, el cual es un LMS (Learning Management System) utilizado ampliamente en e-learning. A través de esta plataforma se realizará la entrega de contenidos, la evaluación y el aprendizaje a través de la interacción entre los alumnos y entre ellos con los tutores expertos.

Respecto al enfoque metodológico se utilizarán una serie de recursos de aprendizaje, donde se unifiquen elementos cognitivos y conductuales. Este enfoque utiliza como principal recurso al storytelling, es decir, la palabra como fuerza generadora de realidades. 

El storytelling ayudará a conceptualizar la importancia actual que tiene el Big Data y su estado del arte en el concierto mundial, a través de un relato consistente y poderoso frente a adultos profesionales, que se asume cuentan con poco tiempo y que necesitan entender de manera más didáctica cómo afecta, en términos concretos, este tema en su vida laboral. Por su parte, el formato scribbling constituye una de las herramientas concretas del storytelling, efectivo a la hora de convertir conceptos difíciles o que incluyen mucha información, en diagramas fáciles de entender. 

Cada curso estará constituido por cápsulas de aprendizaje, comenzará con una animación inicial que contextualice el planteamiento del curso mediante el formato scribbling (de acuerdo a la lógica del storytelling) y que genere el proceso inicial de motivación de toda la temática. Luego se ahondará respectivamente en cada cápsula utilizando la mencionada voz en off grabada en estudio profesional, incluyendo videos de profesores editados y montados con recursos gráficos de apoyo.     

Adicionalmente, se incorporan otras herramientas que apoyarán este recurso como el caso de actividades formativas vinculadas a videos ya existentes sobre el tema, como el caso de TED Talks de dominio público, y videos de profesores.

Se considera dentro de dos cursos simulaciones de software, en cuanto Big Data utiliza aplicaticiones web como Google Analytics, GPUs y modelamiento de grafos que deben ser mostrados en tanto su funcionamiento real.  La simulación de software comprenderá también ejercicios breves guiados sobre la utilización de estos programas, que se asociarán a cada simulación correspondiente. 

Para ayudar monitorear y apoyar el proceso de aprendizaje de los alumnos se contará con un cuerpo de tutores quienes conducirán este proceso, respondiendo a las preguntas, de los alumnos, guiándolos en su aprendizaje y dándoles feedback de su desempeño.

Requisitos de aprobación

La Nota final del diplomado se calculará de acuerdo a la siguiente ponderación de los cursos:
Curso Big Data en Empresas y Organizaciones:                                            25%
Curso Modelamiento Estadístico y Sistemas Recomendadores:               25%
Curso Visualización de Datos:                                                                          25%
Curso Manejo de grandes volúmenes de datos (Big Data):                        25%

Los alumnos deberán cumplir con una calificación mínima de 4,0 en cada curso para aprobar.
En el caso de los programas en modalidad en línea, los estudiantes tendrán que cumplir con la calificación mínima de 4.0 y con los requisitos establecidos para cada programa.
Para aprobar los programas de diplomados se requiere la aprobación de todos los cursos que lo conforman y en el caso que corresponda, de la evaluación final integrativa.
Los alumnos que aprueben las exigencias del programa recibirán un certificado de aprobación digital otorgado por la Pontificia Universidad Católica de Chile.
El alumno que no cumpla con una de estas exigencias reprueba automáticamente sin posibilidad de ningún tipo de certificación.

Bibliografía

-                 Bradshaw, S., Chodorow, K., MogoDB: The Definitive Guide, 3rd edition, O’Reilly Media, 2019.

-                 Dean, J., Ghemawat, S., MapReduce: Simplified Data Processing on Large Clusters. Operating Systems Design and Implementation (OSDI) 2004: 137-150, 2004

-                 Fan, J., Han, F., Liu, H. (2014) Challenges of Big Data analysis. Natl. Sci. Rev. 1: 293–314.

-                 Ghemawat, S., Gobioff, H., Leung, S., The Google file system. Symposium on Operating Systems Principles (SOSP) 2003: 29-43, 2003.

-                 Han, J., Kamber, M., Pei, J. (2011). Data Mining: Concepts and Technique, Third Edition. The Morgan Kaufmann Series.

-                 Hogan, A., Procesamiento masivo de datos, http://aidanhogan.com/teaching/cc5212-1-2019/, 2019.

-                 Knell, R. (2013) Introductory R: A Beginner"s Guide to Data Visualisation, Statistical Analysis and Programming in R, Kindle Edition.

-                 Parra, D., & Sahebi, S. (2013). Recommender systems: Sources of knowledge and evaluation metrics. In Advanced Techniques in Web Intelligence-2 (pp.149-175). Springer Berlin Heidelberg.

-                 Perer, A, Wang, F., Hu, J. (2015) Mining and exploring care pathways from electronic medical records with visual analytics. Journal of Biomedical Informatics, Volume 56, issue C, pages 369-378.

-                 Pichara, K.; Soto, A.; and Araneda, A. (2008) Detection of Anomalies in Large Datasets Using an Active Learning Scheme Based on Dirichlet Distributions. In IBERAMIA, volume 5290, of Lecture Notes in Computer Science, pages 163-172.

-                 Ramakrishnan, R., Gehrke, J., Database Management Systems, 3rd edition, McGraw-Hill, 2002.

-                 Robinson, I., Webber, J., Eifrem, E., Graph Databases: New Opportunities for Connected Data, 2nd edition, O’Reilly Media, 2015.

-                 The Apache Foundation, Apache Hadoop, http://hadoop.apache.org/, 2019.

-                 Vardeman, S. (1994) Statistics for Engineering Problem Solving. PWS Publishing Co.

-                 Wang, L., Wang, G., Alexander, C. (2015). Big Data and Visualization: Methods, Challenges and Technology Progress. Digital Tecnologies Vol 1, No 1- pp33-38.

Proceso de Admisión

Las personas interesadas deberán completar la ficha de postulación que se encuentra disponible en la página web (www.ing.uc.cl/educacionprofesional). Un correo de confirmación solicitará enviar los siguientes documentos a la coordinación programas@ing.puc.cl.

•    Fotocopia Carnet de Identidad.
•    Fotocopia simple del Certificado de Título o del Título.
•    Curriculum Vitae actualizado.

-    El postulante será contactado, para asistir a una entrevista personal (si corresponde) con el Jefe de Programa del Diplomado o su Coordinadora Académica.
-    Las inscripciones son desde enero 2017 hasta el día antes del comienzo de la actividad o hasta completar las vacantes.
-    No se aceptarán postulaciones incompletas.
-    El postular no asegura el cupo, una vez aceptado en el programa, se debe cancelar el valor para estar matriculado.

Importante- Sobre retiros y suspensiones-
• La coordinación del programa se reserva el derecho de suspender o reprogramar la realización de la actividad si no cuenta con el mínimo de alumnos requeridos o por motivos de fuerza mayor. En tal caso se devuelve a los alumnos matriculados la totalidad del dinero a la brevedad posible con un máximo de 10 días hábiles. La devolución se efectuará con depósito en la cuenta (corriente o vista) que indique el alumno o a través de un vale vista que deberá ser retirado en cualquier sucursal del Banco Santander.
• A las personas matriculadas que se retiren de la actividad antes de la fecha de inicio, se les devolverá el total pagado menos el 10% del valor del programa.* A las personas que se retiren una vez iniciada la actividad, se les cobrará las horas o clases cursadas o asistidas y materiales entregados a la fecha de la entrega de solicitud formal de retiro más el 10% del valor del programa*
La solicitud de retiro debe realizarse a la coordinación a cargo y hasta antes de que el 50% de la actividad se haya desarrollado (Reglamento de alumno de Educación Continua).  
En ambos casos la devolución, demorará cómo máximo 15 días hábiles y se efectuará con depósito en la cuenta (corriente o vista) que indique el alumno o a través de un vale vista que deberá ser retirado en cualquier sucursal del Banco Santander. *El 10% corresponde al uso de vacante y se calcula en base al precio publicado, no el valor final pagado.

imagen
SOLICITAR MÁS INFORMACIÓN
POSTULA AQUÍ