Expertos debaten sobre formas responsables de aprovechar potencial de la IA en la investigación

La inteligencia artificial (IA) es una herramienta tecnológica que permite el desarrollo de las áreas de la ciencia. Su uso de manera ética y responsable potencia los avances y logros que se puedan obtener de ella.

Así lo señala un artículo publicado por la revista Nature, en donde cuatro investigadores de distintos países explican el inmenso potencial que ofrece la IA en el campo científico, gracias a su rápido crecimiento.

El artículo detalla que «los sistemas de IA pueden analizar grandes conjuntos de datos, detectar patrones, optimizar el uso de los recursos y generar hipótesis». Y tienen el potencial de ayudar a abordar desafíos globales como el cambio climático, la seguridad alimentaria y las enfermedades».

No obstante, afirma que el uso de esta herramienta también plantea temas relacionados con la equidad, el sesgo y la discriminación, la transparencia, la rendición de cuentas y la privacidad.

“Los programas de IA que generan imágenes pueden perpetuar y amplificar los sesgos, como asociar la palabra «África» con la pobreza, o «pobre» con tonos de piel oscuros». Y algunos gigantes tecnológicos no revelan información importante sobre sus sistemas, lo que obstaculiza los esfuerzos de los usuarios por lograr la rendición de cuentas», menciona.

Opinión de expertos

Suresh Venkatasubramanian, científico informático en la Universidad de Brown en Providence, Rhode Island, señala que el mundo necesita «una mejor orientación sobre las capacidades y limitaciones de las herramientas de IA. Todas las herramientas tienen límites. No se utiliza un destornillador para clavar un clavo, a menos que uno esté desesperado».

«En este momento, estamos en un ciclo de exageración, en el que nadie habla de los límites de estas herramientas, pero es importante transmitir una idea más equilibrada de para qué son buenas y para qué no», indica el investigador.

Asimismo, Ross King, científico informático de la Universidad de Cambridge, Reino Unido, apunta que es necesario hacerse responsable de la ciencia que se utilice.

El experto comenta: «No creo que haya nada éticamente preocupante en utilizar la IA para procesar tus datos, generar hipótesis o sugerir un experimento. Es solo una herramienta. En última instancia, deja que tu conciencia te guíe».

Por su parte, Nyalleng Moorosi, científica informática en el Instituto de Investigación de IA Distribuida en Hlotse, Lesotho, afirma que un problema de la IA es que puede producir resultados que las sociedades no pueden tolerar.

«Los desarrolladores y las empresas se ponen a sí mismos, su cultura y su política en juego. Por eso, es importante construir sistemas de IA a nivel local, porque sabemos a qué somos sensibles y qué tiene sentido para nuestras comunidades», manifiesta la científica.

Finalmente, Seydina Ndiaye, director de programa y profesor de la Universidad Digital Cheikh Hamidou Kane en Dakar, Senegal, afirma que «la carrera por la supremacía en la IA se basa en tres pilares principales: potencia informática, talento y datos». Debido a la competencia internacional y a la creciente demanda global, estos recursos son cada vez más escasos».

Para Ndiaye, si se quiere lograr una IA responsable, es fundamental garantizar que la herramienta esté disponible para todos y todas.

Oficina de Gestión Comunicacional del Ministerio del Poder Popular para Ciencia y Tecnología / Periodista: Sheila Bravo

DIRECCIÓN: Av. Andrés Bello. Edf. Torre Fondo Común, Piso 5, Ofc. Todo el Piso. Urb. Guaicaipuro. Caracas DC. Venezuela. Zona Postal 1050.

TELECOM VENEZUELA | CARACAS | RIF: G-200051434