Inicio
14/10/2024
El avance de la inteligencia artificial (IA) está siendo exponencial y su uso ha transcendido a todas las áreas de la sociedad. Como cualquier tecnología, puede generar impactos positivos o negativos. En el caso de la IA el impacto negativo se podría agravar porque puede “tomar decisiones por nosotros”. En este seminario debatiremos algunos dilemas éticos que surgen al utilizarla.
14/10/2024
2 meses
6 ECTs
online interactivo
Sí
550€
Horarios y requisitos del seminario
Directora
Mónica Villas Olmeda es Ingeniero Industrial de ICAl en el año 1994, MBA por la Universidad Autónoma de Madrid en el año 2007 y ex ejecutiva de IBM. Actualmente es consultora de nuevas tecnologías y docente en distintas Universidades.
Módulo 1. Fundamentos de la IA y ética
Módulo 2. ¿Deberían existir unos principios éticos universales en cuanto a IA?
Módulo 3. Humanismo e IA
Módulo 4. El futuro del trabajo con la IA
Módulo 5. Contenido generado por IA ¿ventajas o inconvenientes?
Módulo 6. La IA en las administraciones públicas. Retos para los juristas
Módulo 7. ¿Puede tener sesgos la IA?
Módulo 8. ¿Es lícito el uso de armas autónomas?
Módulo 9. ¿Puede ayudarnos la IA l con los Objetos de Desarrollo Sostenible?
Módulo 10. Posthumanismo e IA
En el aula, el profesor destacará la importancia de la lectura seleccionada, la situará en su contexto y señalará los horizontes que descubre. Después comenzará un debate donde se identificarán y caracterizarán los argumentos, se formularán preguntas, se reconocerán prejuicios cognitivos y se evaluarán las fuentes de información.
Para superar el seminario deberás realizar las dos actividades obligatorias programadas.
El profesor tendrá en cuenta la calidad de los trabajos realizados. No se podrán entregar fuera de los plazos establecidos.
La asistencia a las sesiones presenciales virtuales, puntúa 0.4 por cada sesión a la que puedas asistir pudiendo obtener hasta 4 puntos en la nota final.
Se calificará como 'Apto' o 'No Apto'.
y un asesor te contestará y resolverá cualquier duda que tengas