Director: Christopher Juan Expósito Izquierdo.
Matrícula a partir del 29 de junio.
Dirigido a:
- Estudiantes y graduados universitarios que quieran adquirir competencias tan demandadas en el contexto digital actual como las de análisis de datos y extracción de conocimiento.
- Estudiantes que deseen incorporar competencias relacionadas con el análisis e interpretación de datos.
- Personas y profesionales interesados en introducirse en las posibilidades que aportan la aplicación de técnicas inteligentes para la conversión de información en conocimiento.
- Empresarios y/o responsables de PYMES y autónomos que quieren obtener capacidades en el análisis de datos y la extracción de conocimiento de los mismos.
- Personas interesadas en el mundo del tratamiento de datos y sus implicaciones.
Descripción del curso:
Competencias a adquirir
Las competencias del curso son las siguientes:
- Capacidad para conocer y desarrollar técnicas de aprendizaje computacional y diseñar e implementar aplicaciones y sistemas que las utilicen, incluyendo las dedicadas a extracción automática de información y conocimiento a partir de grandes volúmenes de datos.
- Capacidad de aplicación de las diferentes técnicas de aprendizaje computacional para el análisis de datos vistas a lo largo del curso.
- Capacidad de identificar los peligros y las implicaciones éticas y morales que se extienden de la recopilación y análisis de datos.
- Capacidad para resolver problemas de análisis de datos con iniciativa, toma de decisiones, autonomía y creatividad.
Metodología
La metodología docente aplicada en este curso alterna clases teóricas, en las que se describen técnicas y sistemas para el análisis de datos, con sesiones prácticas, en las que el alumnado analiza datos de supuestos prácticos para extraer conocimiento a través de herramientas software del campo del big data. En las sesiones prácticas, el alumnado usará sobre las herramientas software las técnicas y sistemas descritos en las clases teóricas. Concretamente, en este curso se presta mayor importancia a las sesiones prácticas, ya que en la aplicación de las técnicas se resaltan las ventajas de las mismas. Por último, el curso dispondrá de foros destinados al debate sobre casos reales de aplicaciones de big data así́ como las implicaciones éticas y morales de la recopilación y análisis de datos.
Criterios de evaluación
Teniendo en cuenta la metodología teórico-práctica propuesta para el curso, la evaluación será continua. Esto es, el alumnado será evaluado a través de la participación en las sesiones formativas, la participación activa y entrega de supuestos en el aula virtual del curso, la calidad de las actuaciones prácticas realizadas durante las sesiones formativas y finalmente la entrega del informe de resultados de los supuestos prácticos a lo largo del curso.
Programa
- Introducción al Big Data
Esta sesión inicial tiene como objetivo fundamental constituir un primer punto de encuentro entre profesorado y alumnado bajo el marco común del big data. Para ello, se contextualiza el campo a tratar y se describe la estructura, contenidos y plan de trabajo del curso. Al mismo tiempo se describirán las competencias adquiridas por el alumnado tras la realización del curso, se presenta al profesorado y se detallan los objetivos a desarrollar. Durante esta primera sesión también se describe el concepto de big data, sus aplicaciones y relevancia práctica. - El proceso de extracción de conocimiento
Esta sesión introduce al alumnado en el proceso de extracción de conocimiento y las diferentes fases que implica. La primera fase a llevar a cabo durante el proceso de extracción de conocimiento es hacer acopio de los datos a explotar. La siguiente fase es la selección, limpieza y transformación, que lidera la transformación de los datos con el objetivo de adquirir la calidad suficiente para ser tratados. En la fase de minería de datos se obtiene nuevo conocimiento a partir de los datos ya tratados. Las dos últimas fases que se incorporan en este módulo son de evaluación e interpretación y de difusión y uso del conocimiento extraído. - Algoritmos de clasificación
La tarea de clasificación es una de las más importantes dentro del campo del machine learning o aprendizaje automático. Concretamente, en aprendizaje automático y estadística, la clasificación estadística es el problema de identificar a cuál de un conjunto de categorías (subpoblaciones) pertenece una nueva observación, sobre la base de un conjunto de datos de formación que contiene observaciones (o instancias) cuya categoría de miembros es conocida. En esta sesión se estudian y ponen en prácticas sobre casos realistas las principales técnicas de clasificación existentes. - Algoritmos de agrupamiento
Las técnicas de agrupamiento forman parte del importante conjunto de algoritmos de machine learning. Estas técnicas tienen como objetivo categorizar conjuntos de elementos en grupos particulares que contienen características singulares. Las técnicas de agrupamiento, consideradas de aprendizaje no supervisado, gozan de popularidad y aplicación en múltiples campos. Por ello, esta sesión presenta y pone en práctica algunas de las principales técnicas de agrupamiento sobre conjuntos de datos realistas. - Tecnologías para Big Data
Existe un amplio conjunto de tecnologías, definiciones, conceptos y tecnicismos, que rodean a los profesionales del big data y su sector. Este módulo pretende dar una visión general y ordenada de las diferentes tecnologías existentes en el sector con una amplia perspectiva. Entre estas encontraremos tecnologías de almacenamiento, virtualización, integración, preparación, calidad y visualización de datos. - Diseño de cuadros de mando
El cuadro de mando es una herramienta de gestión empresarial vital para medir la evolución de la actividad de una empresa con una perspectiva general. A lo largo de esta sesión se pretende dar una visión de lo que es el cuadro de mando y su alcance, así como las directrices necesarias para su diseño y las metodologías existentes. Finalmente con los datos incorporados en el ejemplo de ETL y las directrices especificadas en base al ejemplo de los datos cargados, se procederá a realizar un sencillo ejemplo de cuadro de mando para ilustrar las capacidades del mismo. - Aplicaciones y casos de éxito
Las aplicaciones del big data y análisis de datos se han convertido en un elemento crucial que se debe dominar para aumentar el rendimiento y productividad de cualquier organización que genera grandes volúmenes de datos. Sus aplicaciones se extienden en prácticamente todos los sectores o industrias productivas como por ejemplo el ámbito de la salud, educación, turismo, retail, banca, etc. A pesar de ello y con independencia del sector de aplicación, éstas se pueden categorizar en una serie de análisis específicos según el tipo de información analizada y técnicas o aplicación llevadas a cabo. A lo largo de este módulo se dará una visión general de las principales aplicaciones del big data y casos de éxito reales. - Implicaciones éticas y morales
En big data, las operaciones de recoger, almacenar, gestionar y utilizar datos de forma masiva, en multitud de casos con fines lucrativos, plantea problemas relacionados con la privacidad, la propiedad, la identidad, la intimidad y la confianza. La ética y moral debe estar implícita en todo el ciclo de vida del big data, desde la recolección de los datos, la aplicación de técnicas, hasta la interpretación de resultados de las mismas. En este módulo se pretende exponer los problemas e implicaciones éticas y morales que se deducen del big data y sus aplicaciones.
Docentes:
Christopher Juan Expósito Izquierdo – Dirección Académica
Doctor en informática, con máster en informática y con máster en formación de profesorado. Actualmente, docente en la ULL como profesor ayudante doctor en el Departamento de Ingeniería Informática y de Sistemas e investigador para la transferencia de tecnología y fundador de la spin-off de la ULL Kaizten Analytics S.L. donde desarrolla productos informáticos basados en inteligencia artificial.
Airam Expósito Márquez
Doctor en el área de ciencias de la computación e inteligencia artificial con máster en Ingeniería Informática. Actualmente, realiza labores de desarrollo software e I+D+i en optimización, análisis de datos e inteligencia artificial en Kaizten Analytics S.L. Experiencia en labores docentes en formaciones relacionadas con el ámbito de la transformación digital.
José Marcos Moreno Vega
Licenciado en Matemáticas, Doctor en Informática y Catedrático del Departamento de Ingeniería Informática y de Sistemas de la Universidad de La Laguna. Su labor docente ha estado centrada en asignaturas del campo de la Inteligencia Artificial, los Sistemas de Ayuda a la Decisión y el Tratamiento de Datos en titulaciones de grado y máster. Ha codirigido seis tesis doctorales, es coautor de una treintena de artículos publicados en revistas científicas referente en su ámbito de estudio.
INSCRÍBETE