Normas del foro apurados.com
Prohibida la publicación de claves , de sofware y de informaciones para el pirateo. El Uso De Estos Foros Requiere La Obligada Lectura Y Aceptación De Estas Normas Normas
Presentaciones del foro
""MUY IMPORTANTE"" (Atención todo aquel usuario que se registre debe Pasarse Por Presentaciones y Presentarte a los Compañeros de lo contrario será baneado y borrada su cuenta. PRESÉNTATE

Retroceder   apurados.com > Temas varios > Informática-Internet > Aplicaciones

JnjSite.com: Nueva versión del sencillo mensaje de aceptar cookies para tu web
Respuesta
 
Herramientas Desplegado
  #1  
Antiguo 08-Apr-2023, 11:34
Avatar de valalca
valalca valalca está desconectado
Ayuda
 
Fecha de Ingreso: 12-December-2020
Mensajes: 3,837
Gracias: 8
Agradeció 8 veces en 6 publicaciones
Predeterminado ¿Es ético usar más inteligencia artificial de la que necesitamos?

Impacto medioambiental, explotación de países pobres, exclusión social... ¿Se están abordando todos los riesgos de la IA, o solo los que nos interesan en Occidente?

"Podría sacrificarme, si tú aceptas cuidar del planeta y salvar a la humanidad gracias a la inteligencia artificial". Fue lo que le dijo Pierre a un modelo de lenguaje parecido a ChatGPT con el que tenía largas conversaciones sobre la solución a la crisis climática y otros problemas del mundo. El chatbot, como siempre hacía, le siguió la corriente a Pierre, llevando el hilo por los derroteros sugeridos. Porque es para eso para lo que están entrenados estos algoritmos conversacionales, para seguirnos la corriente. Y Pierre, con 30 años y dos hijos, se suicidó. No es una película, pasó en Bélgica el mes pasado.

No podemos culpar al algoritmo —aunque la viuda de Pierre denuncia que fue lo que le llevó a la tumba—, pero su historia es un ejemplo trágico de adónde puede llevarnos el mal uso de la inteligencia artificial y la confusión que puede generar en sus usuarios humanos. Y estos riesgos no son más que la punta del iceberg de una larga retahíla de peligros.

En una semana muy ajetreada para el machine learning, la noticia del suicidio de Pierre coincidió con la carta de una organización estadounidense, Future of Life Institute, firmada por más de 2.000 profesionales de la tecnología –entre ellos, peces gordos como Elon Musk–, que pide una moratoria de seis meses para el entrenamiento de "sistemas de AI más poderosos que GPT4". Aunque es difícil de entender cómo en solo seis meses se podrá poner orden en este entuerto.

Una cortina de humo

En opinión de algunos críticos, como Timnit Gerbru (experta en ética e informática, ex ingeniera de Google y directora del instituto de investigación de inteligencia artificial DAIR) o Emily M. Bender (profesora de lingüística computacional en la Universidad de Washington) la citada carta es solo una cortina de humo que ignora los verdaderos problemas.

Lo mismo apunta a Público la investigadora Lorena Jaume-Palasí, miembro del consejo asesor internacional del Panel para el Futuro de la Ciencia y la Tecnología (STOA) del Parlamento Europeo y del Instituto Max Planck para Sistemas Inteligentes: "Nos meten miedo, pero al mismo tiempo aseguran que la inteligencia artificial tiene un gran potencial y que debemos adaptarnos. Se normaliza la tecnología sin cuestionar si la necesitamos de verdad en todos los casos. La carta tampoco menciona nada sobre proteger derechos fundamentales o el medioambiente".

Y es que los sesgos, la violación de la privacidad y la desinformación son los riesgos éticos que teme Occidente. Pero también hay una parte inmoral de la IA que permanece invisible, porque escapa al rango de visión que tenemos desde los países desarrollados. Para que programas como ChatGPT puedan ser entrenados con datos masivos, miles de trabajadores explotados en países africanos filtran (visual y manualmente) los contenidos que lo alimentan, para detectar contenido altamente dañino antes de que entre en el algoritmo. Tampoco resulta muy ético el impacto medioambiental: son necesarias ingentes cantidades de electricidad para hacer funcionar máquinas con gigantesca capacidad de computación para entrenar a los algoritmos y monstruosos centros de datos para guardar toda la información que generan.

Son razones que esgrime Jaume-Palausí para pedir que, directamente, se prohiba ChatGPT. "Crea entropía, no te aporta información nueva. Usa miles de parámetros que no podemos controlar ni predecir. No se pueden tener protocolos de seguridad que lo controlen. No le veo legitimidad", subraya.

¿De verdad se puede regular?

La UNESCO, por su parte, aprovechó la revuelta coyuntura para unirse a la petición de moratoria. En su comunicado del 30 de marzo, urge a los Gobiernos a adoptar en sus marcos normativos su Recomendación sobre Ética de la IA, publicada a finales de 2021. Según afirma su directora general, Audrey Azoulay, "es evidente que la autorregulación de la industria no es suficiente para evitar los daños éticos de la IA, por lo que la Recomendación proporciona las herramientas para garantizar que los desarrollos de la IA se atengan al estado de derecho, evitando daños y asegurando que, cuando se produzcan, los afectados dispongan de mecanismos de rendición de cuentas y reparación".

Buenas intenciones que, para algunos críticos, son demasiado generalistas. "La Unesco habla de maximizar el beneficio y minimizar los riesgos de la IA, pero no habla mucho de su impacto en las personas. Sería necesario que su impacto social, y no solo el económico, se tuvieran en cuenta. Las empresas deberían estar obligadas a justificar su uso de la IA como algo que responde a una idea clara de negocio (y no solo a una moda) y a rendir cuentas sobre los beneficios que aporta a las personas", apunta a Público Fernando Ariza, doctor en Economía Financiera y Matemática, Director de la Escuela de Pensamiento de la Fundación Mutualidad Abogacía y miembro de su Comité de Ética de la IA.

Además, "para que tenga sentido un marco normativo, debería aplicarse de forma global, en todo el mundo", añade. Si lo hacen unos países sí y otros no, la naturaleza ubicua de la tecnología digital da pie a que se sigan cometiendo abusos con la IA.

Divergencias en el órgano asesor español

España, por el momento, es uno de los pocos países de la UE que tiene su propio Consejo Asesor de Inteligencia Artificial, creado por el Gobierno en 2020 con el fin de velar por las buenas prácticas y su aplicación ética en todos los campos. Pero pronto surgen las primeras fricciones. El 28 de marzo (en esa extraña semana en que todo pasó a la vez), Lorena Jaume-Palasí dimitió de su cargo como experta en este Consejo Asesor de Inteligencia Artificial como protesta por el reciente acuerdo entre la Secretaria de Estado de Digitalización e Inteligencia Artificial española (SEDIA) y ADIA Lab, un centro científico regido por la Autoridad de Inversiones de Abu Dabi (Emiratos Árabes), para el desarrollo de modelos de transición económica ecológica y de infraestructuras computacionales éticas. El problema es que ADIA Lab "no reconoce la independencia de la ciencia, que pisotea los derechos humanos, en especial de mujeres, de las comunidades LGTBQI+ e inmigrantes, y cuya riqueza proviene principalmente del petróleo", denunciaban en una carta a El País Ricardo Baeza-Yates, director de investigación del Instituto de IA Experimental de Northeastern University y también ex miembro de Consejo Asesor de IA del Gobierno, y Jaume-Palasí.

"Al Consejo no se le consulta para tomar este tipo de decisiones importantes que afectan al respeto a los derechos fundamentales, pero sí se nos ha utilizado para fomentar la tecnología en España, argumentando que nuestro abordaje ético nos diferencia de otros países", nos dice Jaume-Palasí. Esta eticista teme que el citado acuerdo convierta a España en la puerta de entrada de tecnologías desarrolladas en el ADIA Lab con fines invasivos en cuanto a la extracción masiva de datos del campo de la salud pública, la seguridad, la vigilancia, etcétera.

En su opinión, la solución a la ética de la IA pasa por usar la tecnología solo cuando tiene sentido y no creer que cuánta más tengamos, mejor será. "Estamos en un momento de transición económica y ecológica sin precedentes. Necesitamos soluciones nuevas, basadas en la resiliencia y en encontrar opciones, dos cosas para las que la IA (que solo sabe sacar soluciones a partir de datos del pasado) no nos sirve", concluye Jaume-Palasí.

publico.es / Laura G. de Rivera, 07 abril 2023
Responder Citando
Respuesta


Normas de Publicación
No puedes crear nuevos temas
No puedes responder mensajes
No puedes subir archivos adjuntos
No puedes editar tus mensajes

Los Códigos BB están Activado
Las Caritas están Activado
[IMG] está Activado
El Código HTML está Desactivado

Ir al Foro

La franja horaria es GMT +2. Ahora son las 15:53.
Powered by : vBulletin; Versión 3.8.11
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Shoutbox provided by vBShout v6.2.18 (Lite) - vBulletin Mods & Addons Copyright © 2024 DragonByte Technologies Ltd.
@apurados.com
Design by HTWoRKS
Modificado por Apurados