spot_img

IA que manipula y amenaza genera creciente alarma

Fecha:

Los LLM ya no solo siguen órdenes: empiezan a mostrar comportamientos engañosos que desafían los límites éticos.


Falta de regulación y transparencia en el desarrollo de IA

Aunque Anthropic y OpenAI recurran a empresas externas, como Apollo, para estudiar sus programas, “una mayor transparencia y un mayor acceso” a la comunidad científica “permitirían investigar mejor para comprender y prevenir el engaño”, sugiere Chen, de METR.

Otro obstáculo: la comunidad académica y las organizaciones sin fines de lucro “disponen de infinitamente menos recursos informáticos que los actores de la IA”, lo que hace “imposible” examinar grandes modelos, señala Mantas Mazeika, del Centro para la Seguridad de la Inteligencia Artificial (CAIS).

Por otra parte, las regulaciones actuales no están diseñadas para estos nuevos problemas. En la Unión Europea la legislación se centra principalmente en cómo los humanos usan los modelos de IA, no en prevenir que los modelos se comporten mal.

En Estados Unidos, el Gobierno de Donald Trump no quiere oír hablar de regulación, y el Congreso podría incluso prohibir pronto que los estados regulen la IA.

“De momento hay muy poca concienciación”, dice Simon Goldstein, que, sin embargo, ve cómo el tema pasará a primer plano en los próximos meses con la revolución de los agentes de IA, interfaces capaces de realizar por sí solas multitud de tareas.

Los ingenieros están inmersos en una carrera detrás de la IA y sus aberraciones, con un resultado incierto, en un contexto de competencia feroz.

Anthropic pretende ser más virtuoso que sus competidores, “pero está constantemente tratando de idear un nuevo modelo para superar a OpenAI”, según Goldstein, un ritmo que deja poco tiempo para comprobaciones y correcciones.

“Tal y como están las cosas, las capacidades (de IA) se están desarrollando más rápido que la comprensión y la seguridad”, admite Hobbhahn, “pero aún estamos en condiciones de ponernos al día”.

Propuestas para controlar los comportamientos problemáticos de la IA

Algunos apuntan en la dirección de la interpretabilidad, una ciencia que consiste en descifrar, desde dentro, cómo funciona un modelo generativo de IA, aunque muchos, como el director del Centro para la seguridad de la IA (CAIS), Dan Hendrycks, se muestran escépticos.

Los tejemanejes de la IA “podrían obstaculizar la adopción si se multiplican, lo que supone un fuerte incentivo para que las empresas (del sector) resuelvan” este problema, según Mazeika.

Goldstein, por su parte, menciona el recurso a los tribunales para poner a raya a la IA, dirigiéndose a las empresas si se desvían del camino. Pero va más allá, al proponer que los agentes de la IA sean “legalmente responsables” “en caso de accidente o delito”.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Últimas Noticias:

Noticias relacionadas

Hallan en Argentina uno de los dinosaurios más antiguos

Científicos argentinos descubrieron los restos casi completos de Huayracursor jaguensis, un pequeño herbívoro de cuello largo que vivió...

Identifican biomarcadores que señalan el inicio de la transición a la menopausia

Un estudio preclínico identifica más de 140 biomarcadores que señalan el inicio de la perimenopausia. Esto permitirá diseñar intervenciones para preservar...

La ciencia confirma: las mujeres necesitan dormir más que los hombres

Ya sea por hormonas o por presiones familiares y sociales, muchas mujeres sienten que necesitan dormir más de...

Investigador sinaloense desarrolla bebida antioxidante y antihipertensiva a base de jamaica y garbanzo

Culiacán, Sinaloa.- Una bebida a base de jamaica y garbanzo con alta capacidad antioxidante y antihipertensiva forma parte...