Diplomado en Big Data para la Toma de Decisiones - Online*

El Diplomado en Big Data para la Toma de Decisiones entrega las herramientas necesarias para desarrollar una visión estratégica que permita mejorar la operación de las organizaciones y obtener ventajas competitivas en la era de la economía digital por medio de descubrir, administrar y analizar grandes volúmenes de datos.


Descripción

El real mejoramiento de la eficiencia organizacional está relacionado con la implementación de soluciones tecnológicas que permitan agilizar la toma de decisiones en base a información cuantitativa y cualitativa relevante en tiempo real. El uso eficiente de dicha información requiere de una adecuada administración de grandes volúmenes de datos por minuto, que demandan extensos y rigurosos análisis junto con métricas e indicadores cada vez más exactos. El análisis de grandes volúmenes de datos permite extraer tendencias y patrones complejos de información, con enormes implicancias estratégicas, permitiendo predecir mejor y transformando la forma en la que se hacen hoy en día los negocios.

 

La metodología de enseñanza y aprendizaje para este curso online consiste en técnicas metodológicas activas, donde el participante puede interactuar con sus pares y profesor-tutor a través de los recursos tecnológicos que provee la plataforma educativa virtual provista para el diplomado.

Dirigido a

El diplomado está dirigido a profesionales, ejecutivos o emprendedores que requieran tomar decisiones eficaces de gestión basado en los beneficios del uso de tecnologías relacionadas a Big Data y con esto puedan incrementar significativamente las ventajas competitivas en la agilidad de su organización, área funcional o emprendimiento que tengan en curso. Así también, el diplomado está dirigido a los profesionales que requieran conocer los fundamentos de Big-Data para liderar proyectos de gestión que tengan como base el uso cuantitativo de información para así lograr tener una mejor precisión e impacto en la toma de decisiones de la empresa.

Prerrequisitos

-                 Se recomienda poseer un título profesional universitario o técnico, licenciatura o egreso de instituto profesional.

-                 Se recomienda dominio básico de Excel y manejo de internet a nivel usuario y conocimientos básicos de estadística.

Objetivo de aprendizaje
  1. Explicar los fundamentos, principios y últimas tendencias en plataformas computacionales relacionadas a Big Data.
  2. Reconocer las aplicaciones y herramientas analíticas de ciencias de datos y estadística para la predicción, optimización y visualización de información.
  3. Formular y evaluar proyectos de aplicación de Big Data en una organización.
Desglose de cursos

Nombre del curso: Big Data en Empresas y Organizaciones

Nombre en inglés: Big Data in companies and organizations

Horas cronológicas: 35; Créditos: 5

 

 

Descripción del curso

El propósito de este curso es entregar al alumno los conocimientos básicos que necesita para comprender qué es el Big Data, cuál es su valor en una organización y cómo puede ésta aprovechar dicho valor. Durante el curso, el estudiante aprenderá los conceptos básicos relacionados al Big Data, las herramientas que utiliza, el potencial de creación de valor que tiene, la preparación necesaria dentro de la organización para explotar dicho potencial, y cómo evaluar su impacto económico.

 

Una vez concluido el curso, el estudiante tendrá una visión con altura de miras respecto a la aplicabilidad y el valor del Big Data dentro de las organizaciones, y podrá evaluar la pertinencia, requerimientos y preparación necesaria para llevar a cabo satisfactoriamente proyectos de Big Data.

 

La metodología de enseñanza y aprendizaje para este curso online consiste en técnicas metodológicas activas, donde el participante puede interactuar con sus pares y profesor-tutor a través de los recursos tecnológicos que provee la plataforma educativa virtual provista para el curso.

 

Resultados del Aprendizaje

  1. Comprender de manera general qué es Big Data y cuáles son sus herramientas.
  2. Desarrollar estrategias para capturar y crear valor desde el Big Data.
  3. Estructurar los principales elementos en la realización de proyectos de Big Data.
  4. Entender las herramientas utilizadas y las diferentes alternativas de arquitectura y software.
  5. Comprender los perfiles profesionales necesario, sus habilidades y formas de administrar proyectos digitales.
  6. Conocer casos de uso en diferentes negocios y estimar el impacto económico para la empresa.

 

Contenidos:

-                 Introducción general al Big Data en una compañía u organización.

  • ¿Qué es?
  • ¿Que no es?
  • ¿Quién está a cargo?
  • ¿Qué debería hacer como Chief Data & Analytics Officer en mis primeros 90 días?

-                 Cómo evaluar la aplicabilidad en la empresa, tipos de problemas de negocios, datos disponibles, ejemplos de caso de uso, armado de un caso de negocio.

  • ¿Qué proyectos son de interés?
  • ¿Cuáles son los posibles?
  • ¿Cómo se financian estos proyectos?

-                 Data Science usando Big Data como deporte de equipo. Roles y funciones.

  • ¿Cómo se arma un equipo de Data Science?
  • Roles y responsabilidades.
  • Habilidades necesarias.
  • Estrategia de Crecimiento.
  • Administración de Proyectos Digitales.
  • Agile.

-          Herramientas de Big Data – Arquitectura.

  • ¿Con qué herramientas se cuenta?
  • Diferentes arquitecturas de Big Data: On premise, Cloud, Híbridos.
  • ¿Cómo se gobiernan los datos?
  • ¿Cómo se protege la privacidad del Dato y la Seguridad?
  • ¿Son los datos suficientes y representativos?

-                 Modelos Analíticos y herramientas.

  • ¿Cuáles son los diferentes tipos de modelos de machine learning?
  • Herramientas: extracción de datos, entrenamiento de modelos, visualización.
  • ¿Cómo es el paso a Producción?

-                 Ejemplos de Casos de Uso, nuevas tendencias.

-                 Armado de una evaluación económica de un caso de uso.

 

Metodología de enseñanza y aprendizaje:

La metodología se presenta más adelante ya que para todos los cursos es la misma.

 

Evaluación de los Aprendizajes:

-                 Controles                                         (15%).

-                 Foros de discusión                           (20%).

-                 Trabajo grupal                                 (25%).

-                 Test on-line o presencial                 (40%).

 

Nombre del curso: Modelamiento Estadístico y Sistemas Recomendadores

Nombre en inglés: Statistical Modeling and Recommender Systems

Horas cronológicas: 35; Créditos: 5

 

Descripción del curso

 

El curso entregará al estudiante conocimientos y habilidades básicas de modelamiento matemático y estadístico que le permitan extraer información útil de un conjunto de datos. En particular, el estudiante aprenderá – de manera teórica y práctica, utilizando herramientas computacionales - a procesar, clasificar y agrupar datos, y utilizarlos como insumo para sistemas recomendadores.

 

Lo que el estudiante aprenda en el curso le permitirá trabajar con datos para poder convertir éstos en información útil para la toma de decisiones en su organización, en un amplio rango de aplicaciones, y/o para supervisar a equipos de personas dentro de la misma que deban realizar esta tarea.

 

La metodología de enseñanza y aprendizaje para este curso online consiste en técnicas metodológicas activas, donde el participante puede interactuar con sus pares y profesor-tutor a través de los recursos tecnológicos que provee la plataforma educativa virtual provista para el curso.

 

 

Resultados del Aprendizaje

Al finalizar este curso los/las estudiantes debieran ser capaces de:

 

  1. Explicar el fundamento del modelamiento estadístico para el manejo de grandes volúmenes de datos.
  2. Explicar el proceso de modelamiento y sus distintas fases para la implementación de soluciones.
  3. Generar flujos de trabajo de datos para proyectos de Big Data en la organización.
  4. Realizar inferencias estadísticas sobre datos para aumentar el impacto positivo en la toma de decisión de una organización, utilizando herramientas computacionales (software R).

 

Contenidos:

-                 Pre procesamiento de datos

  • Calidad de datos
  • Limpieza de datos
  • Integración de datos
  • Reducción de datos
  • Transformación de datos

-                 Métodos de clasificación

  • El proceso de clasificación
  • Árboles de decisión
  • Bayes ingenuo
  • K-vecinos más cercanos
  • Métodos conjuntos: Bagging, Boosting y Random Forests

-                 Métodos de Agrupación

  • Definición y propiedades
  • Métodos de partición: K-means y K-medoides
  • Métodos Jerárquicos

-                 Sistemas Recomendadores

  • Impacto y casos importantes
  • Filtrado colaborativo
  • Filtrado basado en contenido
  • Métodos híbridos

 

Metodología de enseñanza y aprendizaje:

La metodología se presenta más adelante ya que para todos los cursos es la misma.

 

Evaluación de los Aprendizajes:

-                 Controles                                         (15%).

-                 Foros de discusión                           (20%).

-                 Trabajo grupal                                 (25%).

-                 Test on-line o presencial                 (40%).

 

Nombre del curso: Visualización de datos

Nombre en inglés: Data Visualization 

Horas cronológicas: 35; Créditos: 5

 

Descripción de curso

Este curso permite al alumno desarrollar habilidades para identificar y evaluar volúmenes de datos mediante el uso de estrategias de representación de información, apoyado en el reconocimiento de conceptos de diseño y principios perceptivos y cognitivos. Esto permite tanto un a correcta configuración de los mensajes como una apropiada lectura y comprensión de estos.

 

El estudiante aprenderá a utilizar herramientas técnicas conceptuales y metodológicas básicas que le permitirán desarrollar proyectos de visualización de grandes volúmenes datos eficientes, según sus objetivos comunicacionales. desde el reconocimiento de usuarios y sus necesidades de información, hasta los procesos de transformación de datos a representación visual. Estas herramientas resultan fundamentales a la hora de convertir los datos y su análisis, en información relevante pueda ser comunicada de manera eficiente, fácil de comprender, y útil para la toma de decisiones, ya sea dentro de una organización, o en el contexto de cualquier proyecto relacionado con Big Data.

 

La metodología de enseñanza y aprendizaje para este curso online consiste en metodologías activas, donde el participante puede interactuar con sus pares y con su y profesor-tutor, a través de los recursos tecnológicos que provee la plataforma educativa virtual provista para el curso.

 

 

Resultados del Aprendizaje

Al finalizar este curso los/las estudiantes debieran ser capaces de:

 

  1. Elaborar estrategias de alto impacto para la comunicación de grandes volúmenes de datos.
  2. Diseñar mecanismos de síntesis y visualización de datos de valor para apoyar la toma de decisiones a través de una correcta.
  3. Diseñar representaciones perceptibles que permitan amplificar el conocimiento organizacional.
  4. Reconocer las herramientas y metodologías para el desarrollo de proyectos de visualización de datos.

 

Contenidos:

-                 ¿Qué es la visualización de datos?

  • De qué trata la visualización
  • Breve Contexto
  • Breve historia de la visualización
  • Panorama de la visualización hoy
  • Una definición operativa

-                 ¿Para qué sirve la visualización de datos?

  • Visualización para amplificar el conocimiento
  • Para qué nos sirve la visualización
  • Qué queremos mostrar
  • El proceso interactivo

-                 ¿Cómo trabajar la visualización de datos?

  • Proceso de Visualización
  • Representación: Percepción
  • Representación: Diseño y Codificación Visual
  • Qué no hacer
  • Evaluación

-                 ¿Cómo continuar la visualización?

  • Recomendaciones para profundizar
  • Herramientas Recomendadas
  • Autores Recomendados
  • Recordando los objetivos de la Visualización

 

Metodología de enseñanza y aprendizaje:

La metodología se presenta más adelante ya que para todos los cursos es la misma.

 

Evaluación de los Aprendizajes:

-                 Controles                                         (15%).

-                 Foros de discusión                           (20%).

-                 Trabajo grupal                                 (25%).

-                 Test on-line o presencial                 (40%).

 

Nombre del curso: Manejo de Grandes Volúmenes de Datos (Big Data)

Nombre en inglés: Managing Big Data

Horas cronológicas: 35; Créditos: 5

 

Descripción del curso

 

El real mejoramiento de la eficiencia organizacional está relacionado con la implementación de soluciones tecnológicas que permiten agilizar la toma de decisiones en base a información cuantitativa y cualitativa relevante en tiempo real. Dicha información proviene de una adecuada administración de grandes volúmenes de datos por minuto, que demandan extensos y rigurosos análisis junto con métricas e indicadores cada vez más exactos. El análisis de grandes volúmenes de datos permite extraer tendencias y patrones complejos de información, con enormes implicancias estratégicas, permitiendo predecir mejor y transformando la forma en la que se hacen hoy en día los negocios. Este curso permite al alumno escoger las herramientas adecuadas para manejo de los datos en su empresa, entendiendo las infraestructuras computacionales que se requieren para manejar datos de distintos volúmenes y características.

 

La metodología de enseñanza y aprendizaje para este curso online consiste en técnicas metodológicas activas, donde el participante puede interactuar con sus pares y profesor-tutor a través de los recursos tecnológicos que provee la plataforma educativa virtual provista para el curso.

 

Resultados del Aprendizaje

Al finalizar este curso los/las estudiantes debieran ser capaces de:

 

  1. Modelar datos usando herramientas de bases de datos relacionales (SQL), bases de datos NoSQL y bases de datos distribuidas.
  2. Estimar la necesidad de cambiar la infraestructura de los datos desde un modelo clásico centralizado (tipo SQL) a un modelo de Big Data distribuido.
  3. Identificar las herramientas de manejo de datos adecuadas para el contexto de su empresa.

 

Contenidos:

-                 Bases de datos relacionales

  • Diversos fuentes de datos (Excel, CSV, texto plano, páginas web,…)
  • Organización clásica de los datos: Bases de datos relacionales
  • Lenguaje SQL
  • Propiedades de una base de datos relacional: ACID
  • Integración de los datos

-                 Bases de datos distribuidas

  • Paso al mundo de Big Data (limitaciones de una base de datos relacional)
  • Un sistema distribuido
  • Propiedades de sistemas distribuidos: CAP y BASE
  • Limitaciones de sistemas distribuidos: ACID vs CAP
  • Resolución de fallas en un sistema distribuido usando el consenso distribuido

-                 Bases de datos NoSQL

  • Características de sistemas NoSQL
  • Bases de datos de búsqueda: Amazon Dynamo
  • Bases de datos de documentos: MongoDB
  • Bases de datos de grafos: Neo4J

-                 Procesamiento masivo de datos

  • Distribución de los datos (Google distributed File System)
  • Map-reduce
  • Infraestructura de Apache Hadoop
  • Apache Pig: lenguaje de scripting para Hadoop

 

Metodología de enseñanza y aprendizaje:

La metodología se presenta más adelante ya que para todos los cursos es la misma.

 

Evaluación de los Aprendizajes:

-                 Controles                                         (15%).

-                 Foros de discusión                           (20%).

-                 Trabajo grupal                                 (25%).

-                 Test on-line o presencial                 (40%).

Equipo Docente

JEFE DE PROGRAMA

DOMAGOJ VRGOC

Profesor Asistente del Instituto de Ingeniería Matemática y Computacional de la Pontificia Universidad Católica. Doctor en Computación de la Universidad de Edimburgo, Reino Unido. Sus áreas de interés son manejo de datos, la Web Semántica y Teoría de Computación. Su tesis de doctorado fue destacada por la British Computing Society como una de las mejores de su generación. Es autor de más de 30 papers técnicos y ha sido parte de los comités de programas de las conferencias más importantes en bases de datos, la Web, e Inteligencia Artificial, como ACM PODS, ICDT, WWW, ISWC, IJCAI, entre otros.

 

EQUIPO DOCENTE

ALEJANDRO JARA

Ph.D. en Matemáticas de la Universidad Católica de Leuven, Bélgica. Profesor Asociado del Departamento de Estadísticas de la UC.

 

CLAUDIO MORCHÓN

Master en Ingeniería Matemática, especialidad en Ciencias y Técnicas Estadísticas e Investigación Operativa, Universidad Carlos III de Madrid. Contador Público y Master en Finanzas, Universidad de San Andrés.

 

RICARDO VEGA

Diseñador y artista, MFA Technology (Parsons, The New School, Nueva York). Profesor de la Escuela de Diseño de la Universidad Católica. Trabaja en temas relativos a la visualización de información, programación aplicada en el diseño y el arte, con especial énfasis en las implicancias sociales y culturales de la tecnología.

 

DOMAGOJ VRGOC

Profesor Asistente del Instituto de Ingeniería Matemática y Computacional de la Pontificia Universidad Católica. Doctor en Computación de la Universidad de Edimburgo, Reino Unido. Sus áreas de interés son manejo de datos, la Web Semántica y Teoría de Computación. Su tesis de doctorado fue destacada por la British Computing Society como una de las mejores de su generación. Es autor de más de 30 papers técnicos y ha sido parte de los comités de programas de las conferencias más importantes en bases de datos, la Web, e Inteligencia Artificial, como ACM PODS, ICDT, WWW, ISWC, IJCAI, entre otros.

 

* EP (Educación Profesional) de la Escuela de Ingeniería se reserva el derecho de remplazar, en caso de fuerza mayor, a él o los profesores indicados en este programa.

Metodología

Metodología de enseñanza y aprendizaje:

Los contenidos del diplomado están agrupados en cursos de dos meses de duración cada uno. El año académico se divide en cinco bimestres programados desde marzo a diciembre.

 

Dado que los cursos no son prerrequisito uno de otro, los alumnos tienen la opción de ingresar al diplomado en cualquier bimestre y los cursos que no hayan alcanzado a realizar los podrán tomar al año siguiente.

 

Descripción cursos 5 créditos:

En cada curso se desplegarán semanalmente las clases, contenidos, actividades y evaluaciones. Las clases se estructuran bajo una lógica de diseño instruccional centrada en el estudiante, que contribuye a la motivación y facilita su aprendizaje. Se busca que estén siempre presente tres elementos: contenido, evaluación y reflexión. El componente de reflexión es clave para generar comunidades de aprendizaje activas que permitan compartir experiencias.

 

En el caso del contenido, este se organiza a través de recursos interactivos que integran videos, esquemas, artículos, lecturas complementarias y preguntas formativas, todos dispuestos para facilitar el aprendizaje de los estudiantes.

 

En cuanto a las estrategias de evaluación, estas se organizan en cuestionarios con preguntas de opción múltiple, cuyo propósito es medir el nivel de aprendizaje logrado en cada una de las clases. Complementariamente, se dispone de foros en donde se evaluará tanto la participación como la calidad de dicha participación, brindando de esta forma al estudiante la oportunidad de intercambiar y fundamentar sus opiniones respecto a temas de actualidad asociados al contenido. Finalmente, el curso contempla la entrega de un trabajo, el que debe ser desarrollado a lo largo del curso, en donde se espera que el estudiante tenga la oportunidad de aplicar los conocimientos adquiridos y un examen final.

 

Cada curso cuenta con tutores de contenidos cuya función es dar respuesta a todas las preguntas sobre la materia tratada, ya sea directamente, o bien, sirviendo de puente con el profesor responsable del curso.

 

Cada curso además cuenta con una clase en vivo donde los alumnos podrán reforzar y resolver dudas. La asistencia a dicha clase es obligatoria y los alumnos podrán participar mediante streaming o asistiendo presencialmente en los lugares y horarios de realización que defina la Clase Ejecutiva.

 

Para consultas técnicas (soporte técnico) o administrativas (coordinación asuntos estudiantiles) los alumnos pueden contactarse con la clase ejecutiva escribiendo mediante el formulario de “contacto Coordinación” dispuesto en el curso, el email alumnosuc@claseejecutiva.cl o llamando al número (+562) 2840 0821 en horario hábil (lunes a viernes de 9:00 a 18:00).

Requisitos de aprobación

La Nota final del diplomado se calculará de acuerdo a la siguiente ponderación de los cursos:

 

Curso Big Data en Empresas y Organizaciones:                            - 25%

Curso Modelamiento Estadístico y Sistemas Recomendadores:    - 25%

Curso Visualización de Datos:                                                       - 25%

Curso Manejo de grandes volúmenes de datos (Big Data):           - 25%

 

El estudiante aprobará el diplomado cumpliendo con los siguientes requisitos:

 

a)    Calificación mínima de 4.0 en cada curso y

b)      Realizar todas las actividades del diplomado.

 

Si el alumno reprueba alguno de los cursos del diplomado tiene la posibilidad de volver a realizarlo a la versión siguiente (2 strikes por curso).

 

Para aprobar los programas de diplomados se requiere la aprobación de todos los cursos que lo conforman.

 

Los alumnos que aprueben las exigencias del programa recibirán un certificado de aprobación digital otorgado por la Pontificia Universidad Católica de Chile.

 

El alumno que no cumpla con una de estas exigencias reprueba automáticamente sin posibilidad de ningún tipo de certificación.

Bibliografía
  1. Ajay Agrawal, Joshua Gans, Avi Goldfarb (2018) Prediction Machines: The Simple Economics of Artificial Intelligence.
  2. Bradshaw, S., Chodorow, K., MogoDB: The Definitive Guide, 3rd edition, O’Reilly Media, 2019.
  3. Cairo, Alberto. Infografía 2.0: visualización interactiva de información en prensa. Alamut Editores, 2008.
  4. Dean, J., Ghemawat, S., MapReduce: Simplified Data Processing on Large Clusters. Operating Systems Design and Implementation (OSDI) 2004: 137-150, 2004.
  5. Fan, J., Han, F., Liu, H. (2014) Challenges of Big Data analysis. Natl. Sci. Rev. 1: 293–314.
  6. Ghemawat, S., Gobioff, H., Leung, S., The Google file system. Symposium on Operating Systems Principles (SOSP) 2003: 29-43, 2003.
  7. Han, J., Kamber, M., Pei, J. (2011). Data Mining: Concepts and Technique, Third Edition. The Morgan Kaufmann Series.
  8. Hogan, A., Procesamiento masivo de datos, http://aidanhogan.com/teaching/cc5212-1-2019/, 2019.
  9. Kai-Fu Lee (2018) AI Superpowers: China, Silicon Valley, and the New World Order.

10.  Knell, R. (2013) Introductory R: A Beginner"s Guide to Data Visualisation, Statistical Analysis and Programming in R, Kindle Edition.

11.  Lima, Manuel. Visual Complexity: Mapping Patterns of Information. New York. Princeton Architectural Press, 2013.

12.  Mariya Yao, Adelyn Zhou, Marlene Jia (2018) Applied Artificial Intelligence: A Handbook For Business Leaders

13.  Mark Grover (2015) Hadoop Application Architectures: Designing Real-World Big Data Applications.

14.  Mijksenaar, Paul. Diseño de la información. Ediciones G. Gili, 2001.

15.  Nathan Marz (2015) Big Data: Principles and best practices of scalable realtime data systems.

16.  Parra, D., & Sahebi, S. (2013). Recommender systems: Sources of knowledge and evaluation metrics. In Advanced Techniques in Web Intelligence-2 (pp. 149-175). Springer Berlin Heidelberg.

17.  Pichara, K.; Soto, A.; and Araneda, A. (2008) Detection of Anomalies in Large Datasets Using an Active Learning Scheme Based on Dirichlet Distributions. In IBERAMIA, volume 5290, of Lecture Notes in Computer Science, pages 163-172,

18.  Pogorelova, K. The looks of understanding: visual appeal of information graphics, 2013.

19.  Ramakrishnan, R., Gehrke, J., Database Management Systems, 3rd edition, McGraw-Hill, 2002.

20.  Robinson, I., Webber, J., Eifrem, E., Graph Databases: New Opportunities for Connected Data, 2nd edition, O’Reilly Media, 2015.

21.  Seth Stephens-Davidowitz (2018) Everybody Lies: Big Data, New Data, and What the Internet Can Tell Us About Who We Really Are.

22.  The Apache Foundation, Apache Hadoop, http://hadoop.apache.org/, 2019.

23.  Tufte, Edward. Visual Explanations: Images and Quantities, Evidence and Narrative. Graphics Press, 1997.

24.  Vardeman, S. (1994) Statistics for Engineering Problem Solving. PWS Publishing Co.

25.  Ware, Colin. Visual Thinking for Design. Morgan Kaufmann, 2008.

26.  Yau, Nathan. Data Points. John Wiley & Sons, 2013.

Proceso de Admisión

Las personas interesadas deberán enviar los documentos que se detallan más abajo al correo programas@ing.puc.cl.

 

  • Fotocopia Carnet de Identidad.

-                 El postular no asegura el cupo, una vez aceptado en el programa, se debe cancelar o documentar el valor, para estar matriculado.

 

VACANTES: 40

“No se tramitarán postulaciones incompletas”.

 

El Programa se reserva el derecho de suspender la realización del diplomado si no cuenta con el mínimo de alumnos requeridos. En tal caso se devuelve a los alumnos matriculados la totalidad del dinero en un plazo aproximado de 10 días hábiles.

 

A las personas matriculadas que se retiren de la actividad antes de la fecha de inicio, se les devolverá el total pagado menos el 10% del total del arancel.

SOLICITAR MÁS INFORMACIÓN
POSTULA AQUÍ

Mantente conectado a nuestras redes sociales