
Verlo siempre en Español
Verlo siempre en Español
La inteligencia artificial avanza rápidamente y surge la necesidad de fijar un marco jurídico y unos principios éticos para garantizar un desarrollo seguro de la tecnología y reducir los riesgos de la misma para la sociedad. Por eso habría que preguntarse, ¿Qué pasa con la ética de la inteligencia artificial?
La Unión Europea ha aprobado en febrero de este año una política en materia de inteligencia artificial y robótica. El objetivo es diseñar un planteamiento común, que facilite el desarrollo de estas nuevas tecnologías en beneficio de la sociedad, mejorando la experiencia de los consumidores y su confianza.
El documento especifica que se debe preservar la dignidad, la autonomía, la autodeterminación y el bienestar ─tanto físico como psicológico─ de las personas. Otro factor relevante en este contexto es la ciberseguridad, que se convierte en clave para garantizar que los datos no sean manipulados de forma malintencionada o usados indebidamente.
Cuando hablamos de ética de la inteligencia artificial hay que diferenciar entre la ética de la robótica –que hace referencia a los investigadores, diseñadores y usuarios– y la ética de las máquinas: los robots no tienen valores ni consciencia más allá de lo que se les programa. Así, la IA será un reflejo de la sociedad y en esta hay sesgos presentes. Por ello, es muy probable que esos sesgos afloren a la hora de recopilar datos y crear el algoritmo.
Para combatir el uso malintencionado que pudiera hacerse de esta tecnología, proponen un marco que penalice las prácticas de manipulación que podrían tener consecuencias negativas, por ejemplo, en resultados electorales. La clave está en la ética que apliquemos para la tecnología y esto lo demuestra: la inteligencia artificial puede hacer un análisis inteligente y detectar de forma automatizada la información falsa y la propaganda.
Seguro que ya habías visto este vídeo de Barack Obama. Se hizo viral el año pasado porque el personaje afirma que “el presidente Trump es un completo imbécil”. Sí, personaje, porque esta grabación no es real. Se publicó para concienciar sobre los peligros de utilizar la inteligencia artificial para crear noticias falsas. En la política presentada en el Parlamento Europeo se pide a la Comisión que garantice que quienes produzcan materiales falsos o modificados indiquen explícitamente que no se trata de vídeos originales.
Existen sectores prioritarios en los que la IA tiene mayor impacto: salud, energía, transporte, agricultura y ciberseguridad. En el sector eléctrico la aplicación de esta tecnología puede tener numerosos beneficios. Ya se está utilizando en la instalación de sensores para gestionar el consumo de energía en las viviendas, que supone un ahorro energético y económico.
Para conseguir una producción de energía más eficiente, en concreto, procedente de las renovables, se apuesta por el mantenimiento predictivo de activos; en vez del mantenimiento preventivo. Pero también puede tener efectos muy graves, dependiendo del uso que se haga de la tecnología. Las redes inteligentes se amplían y están más expuestas a ciberamenazas; por ello, se pide a los Estados miembros que acompañen la transformación digital en el sector utilizando la inteligencia artificial para mejorar la ciberseguridad.
En primer lugar, el documento señala que la inteligencia artificial seguirá siendo una herramienta útil de colaboración con la acción humana para mejorar servicios y productos y reducir los errores. Así, aclara que las personas siempre deben ser las responsables, en última instancia, de la toma de decisiones. Y, además, reflexiona sobre si es necesaria la supervisión, por parte de un profesional cualificado, enfocada en proteger objetivos legítimos de interés público y prestar servicios de alta calidad. Los algoritmos de los sistemas de toma de decisiones no deben utilizarse sin una evaluación previa de su impacto en la vida de las personas.
Esta no solo abarca el código, sino también los datos y la toma de decisiones automatizada. Es necesario definir y adoptar medidas que se impongan para evitar o minimizar la discriminación y el sesgo algorítmico, contribuyendo así a definir la ética de la inteligencia artificial.
La calidad de los datos utilizados en el aprendizaje profundo es importante para conseguir una auténtica competitividad en este sector. De hecho, ya se han logrado avances relevantes en áreas como la percepción de objetos, la traducción automática y el reconocimiento de voz. El documento solicita a los poderes públicos que se garanticen las formas de compartir y regular los datos públicos convirtiéndolo en un bien común, al tiempo que se preservan la privacidad y los datos sensibles.
La divulgación de código no resolverá por sí sola la cuestión de la transparencia de la inteligencia artificial porque no revelará los sesgos inherentes que existen y no explicará el proceso de aprendizaje automático. Destaca la importancia de abordar el sesgo de los promotores y la necesidad de contar con equipos diversos. En ningún caso deben reproducirse en las máquinas y los robots los estereotipos contra las mujeres ni ninguna forma de discriminación.
Según el informe Future of Job 2018 del Foro Económico Mundial, con el desarrollo de la IA se van a crear 58 millones de puestos de trabajo. La automatización y la sustitución de algunos empleos es un punto clave que, en general, nos preocupa a todos. Y como no es lo mismo ser usuario de tecnología que entender cómo funciona, la resolución recomienda elaborar estrategias para garantizar el reciclaje en la formación y preparación de los profesionales. Pero no solo eso, es necesario adaptar los planes de estudio para impulsar las capacidades digitales, incluida la programación, desde los primeros años de escolarización.
La inteligencia artificial y la robótica impactan en la economía, el empleo y la sociedad en su totalidad. Es el momento en el que los gobiernos, las universidades y la industria se planteen los dilemas éticos que serán la base para una legislación futura. La inteligencia artificial nos puede hacer la vida más sencilla.