fbpx

Inteligencia artificial ¿Cómo librar las batallas correctas?

¿La inteligencia artificial sustituirá al ser humano? ¿Podría volverse contra sus creadores? ¿Representa un peligro para la especie humana?


El despliegue de la Inteligencia Artificial ha desatado preguntas en el debate público y han sacudido a los medios de comunicación desde el despliegue masivo de herramientas de IA generativa y las declaraciones sensacionalistas de algunos personajes públicos.

Sin embargo, por muy interesantes que sean las especulaciones desde un punto de vista filosófico, la mayoría de los expertos coinciden en que son un tanto prematuras.

Es cierto que la inteligencia artificial tiene un enorme potencial. Es una tecnología que va a permitir automatizar un amplio abanico de tareas, crear nuevos servicios y, en definitiva, hacer más eficientes las economías. La IA generativa marca una nueva etapa en esta tendencia subyacente, cuyas múltiples aplicaciones apenas estamos empezando a explorar.

“No debemos perder de vista que, a pesar de sus notables prestaciones, los sistemas de IA son esencialmente máquinas, nada más que algoritmos integrados en procesadores capaces de asimilar grandes cantidades de datos” comentó Patrice Caine, presidente y CEO del Grupo Thales

Se nos ha dicho que estas nuevas herramientas serán capaces de superar la prueba de Turing. Probablemente sea cierto, pero ese test -que anteriormente se creía capaz de trazar la línea divisoria entre la inteligencia humana y la inteligencia artificial- hace tiempo que dejó de tener un valor real. Estas máquinas son incapaces de inteligencia humana, en el sentido más amplio del término (es decir, que implique sensibilidad, adaptación al contexto, empatía…), reflexividad y conciencia, y probablemente lo serán por mucho tiempo. Uno no puede evitar pensar que quienes imaginan que estas herramientas tendrán pronto esas características se están dejando influir demasiado por la ciencia ficción y por figuras míticas como Prometeo o el gólem, que siempre han ejercido cierta fascinación sobre nosotros.

Si adoptamos un punto de vista más extremo nos damos cuenta de que las cuestiones éticas planteadas por la creciente importancia de la inteligencia artificial no son nada nuevo y que la llegada de ChatGPT y otras herramientas simplemente las ha hecho más apremiantes.

El tema del empleo, estas cuestiones se refieren, por una parte, a la discriminación creada o amplificada por la IA y los datos de entrenamiento que utiliza y, por otra, a la propagación de información errónea (ya sea deliberadamente o como resultado de “alucinaciones de la IA”). Sin embargo, estos dos temas preocupan desde hace tiempo a investigadores de algoritmos, legisladores y empresas del sector, que ya han empezado a aplicar soluciones técnicas y jurídicas para contrarrestar los riesgos.

  1. Soluciones técnicas: Los principios éticos se están incorporando al propio desarrollo de las herramientas de IA. En Thales, llevamos tiempo comprometidos a no construir “cajas negras” cuando diseñamos sistemas de inteligencia artificial. Hemos establecido directrices que garantizan que los sistemas sean transparentes y explicables. También nos esforzamos por minimizar los prejuicios (sobre todo de género y apariencia física) en el diseño de nuestros algoritmos, a través de los datos de entrenamiento que utilizamos y la composición de nuestros equipos.
  2. Soluciones jurídicas: Aquí, la Unión Europea ha tomado indiscutiblemente la delantera. La Comisión Europea y el Parlamento Europeo llevan más de dos años trabajando en un proyecto de reglamento destinado a limitar por ley los usos más peligrosos de la inteligencia artificial.
  3. Educación: Un verdadero cambio social como lograremos protegernos de los riesgos inherentes al mal uso de la IA. Juntos, debemos conseguir apartarnos del tipo de cultura de la inmediatez que ha florecido con la llegada de la tecnología digital, y que probablemente se verá exacerbada por la difusión masiva de estas nuevas herramientas.

Como sabemos, la IA generativa permite producir fácilmente contenidos altamente virales, pero no necesariamente confiables. Existe el riesgo de que amplifique las deficiencias ampliamente reconocidas en el funcionamiento de las redes sociales, sobre todo en su promoción de contenidos cuestionables y divisivos, y en la forma en que provocan reacciones y enfrentamientos instantáneos.

Además, estos sistemas, al acostumbrarnos a obtener respuestas “listas para usar”, sin tener que buscar, autentificar o contrastar fuentes, nos vuelven intelectualmente perezosos. Corren el riesgo de agravar la situación al debilitar nuestro pensamiento crítico.

Por tanto, aunque no sería razonable empezar a enarbolar la bandera roja de un peligro existencial para la raza humana, sí es necesario emitir una señal de alarma. Hay que buscar fórmulas para acabar con esa nociva propensión a la inmediatez que lleva casi dos décadas contaminando la democracia y creando un caldo de cultivo para las teorías de la conspiración.

Piénselo durante 30 segundos” es el fantástico título de un curso de formación creado por el centro quebequense de educación en medios de comunicación e información. Tomarse el tiempo necesario para contextualizar y evaluar la credibilidad de un contenido, y mantener un diálogo constructivo en lugar de reaccionar inmediatamente, son los pilares de una vida digital sana. Tenemos que asegurarnos de que su enseñanza -tanto en la teoría como en la práctica- sea una prioridad absoluta en los sistemas educativos de todo el mundo.

Si abordamos este desafío, por fin podremos aprovechar el tremendo potencial que tiene esta tecnología para hacer avanzar la ciencia, la medicina, la productividad y la educación.

Staff Boletín

Artículos de interés sobre las últimas tendencias y avances en el campo de la Industria TI

Publicaciones relacionadas

Botón volver arriba

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, click en el enlace para mayor información.

ACEPTAR
Aviso de cookies