■ 5:03 pm ■ martes 16 de septiembre 2025
Sin Resultados
Ver Todos los Resultados

  • INICIO
  • SINALOA
    • NORTE
    • CENTRO
    • SUR
  • NACIONAL
  • INTERNACIONAL
  • POLICIACA
  • DEPORTES
  • EL CLIMANuevo
  • INICIO
  • SINALOA
    • NORTE
    • CENTRO
    • SUR
  • NACIONAL
  • INTERNACIONAL
  • POLICIACA
  • DEPORTES
  • EL CLIMANuevo
Sin Resultados
Ver Todos los Resultados
NR Noticias
► EN VIVO

“La IA no es peligrosa, pues no aprende sola”; plantea estudio en Alemania

Por Heriberto Lopez
14 agosto 2024
4 Leer Min
“La IA no es peligrosa, pues no aprende sola”; plantea estudio en Alemania
Comparte en FacebookComparte en Twitter

Las declaraciones del Dr. Harish Tayyar Madabushi, científico informático de la Universidad de Bath y coautor del nuevo estudio, Habilidades emergentes de los LLM, son contundentes: “los modelos de lenguaje grandes como ChatGPT no pueden aprender de forma independiente ni adquirir nuevas habilidades, lo que significa que no representan una amenaza existencial para la humanidad”.

El estudio, publicado ayer como parte de las actas de la 62ª Reunión Anual de la Asociación de Lingüística Computacional (ACL 2024), la principal conferencia internacional sobre procesamiento del lenguaje natural, revela que los LLM tienen una capacidad superficial para seguir instrucciones y sobresalir en el dominio del lenguaje. “Sin embargo, no tienen potencial para dominar nuevas habilidades sin instrucciones explícitas. Esto significa que siguen siendo inherentemente controlables, predecibles y seguros”, agrega Tayyar Madabushi.

La investigación de la Universidad de Bath y la Universidad Técnica de Darmstadt en Alemania, muestra además que los LLM, que se están entrenando en conjuntos de datos cada vez más grandes, pueden seguir implementándose sin problemas de seguridad, aunque la tecnología aún puede usarse indebidamente.

Con el crecimiento, es probable que estos modelos generen un lenguaje más sofisticado y se vuelvan mejores a la hora de seguir indicaciones explícitas y detalladas, pero es muy poco probable que adquieran habilidades de razonamiento complejas.

La narrativa predominante de que este tipo de IA es una amenaza para la humanidad impide la adopción y el desarrollo generalizados de estas tecnologías, y también desvía la atención de los problemas genuinos que requieren nuestra atención”, dijo Tayyar Madabushi.

LOS EJEMPLOS
El equipo de investigación colaborativa, dirigido por la profesora Iryna Gurevych, de la Universidad Técnica de Darmstadt en Alemania, realizó experimentos para probar la capacidad de los LLM para completar tareas que los modelos nunca antes habían realizado: las llamadas habilidades emergentes.

A modo de ejemplo, los LLM pueden responder preguntas sobre situaciones sociales sin haber sido entrenados o programados explícitamente para ello. Si bien investigaciones anteriores sugirieron que esto era producto de que los modelos ‘conocían’ situaciones sociales, los investigadores demostraron que, de hecho, era el resultado de que los modelos utilizaban una capacidad bien conocida de los LLM para completar tareas basadas en unos pocos ejemplos que se les presentaban, conocida como aprendizaje en contexto (ICL)”, explicó.

A través de miles de experimentos, el equipo demostró que una combinación de la capacidad de los LLM para seguir instrucciones (ICL), la memoria y la competencia lingüística puede explicar tanto las capacidades como las limitaciones que presentan.

Tayyar Madabushi dijo que el temor ha sido que a medida que los modelos se hacen cada vez más grandes. “Serán capaces de resolver nuevos problemas que actualmente no podemos predecir, lo que plantea la amenaza de que estos modelos más grandes puedan adquirir habilidades peligrosas, incluido el razonamiento y la planificación.

Esto ha provocado mucho debate –por ejemplo, en la Cumbre de Seguridad de IA del año pasado en Bletchley Park, para la que se nos pidió apoyo–, pero nuestro estudio muestra que el miedo a que un modelo desaparezca y haga algo completamente inesperado, innovador y potencialmente peligroso, no es válido.

Las preocupaciones sobre la amenaza existencial que plantean los LLM no se limitan a los no expertos y han sido expresadas por algunos de los principales investigadores de IA de todo el mundo”, agrega el científico informático de la Universidad de Bath.

Sin embargo, el Dr. Tayyar Madabushi sostiene que este temor es infundado, ya que las pruebas de los investigadores demostraron claramente la ausencia de capacidades de razonamiento complejo emergentes en los LLM y la inteligencia artificial generativa.

Si bien es importante abordar el potencial existente de mal uso de la IA, como la creación de noticias falsas y el mayor riesgo de fraude, sería prematuro promulgar regulaciones basadas en amenazas existenciales percibidas.

Es importante destacar que esto significa para los usuarios finales que, confiar en los LLM para interpretar y realizar tareas complejas que requieren un razonamiento complejo sin instrucciones explícitas, probablemente sea un error. En cambio, es probable que los usuarios se beneficien al especificar explícitamente lo que necesitan que hagan los modelos y proporcionar ejemplos, siempre que sea posible, para todas las tareas, excepto las más simples”.

FAKE NEWS
Gurevych añadió que los resultados no significan que la IA no sea una amenaza en absoluto. “Más bien, demostramos que la supuesta aparición de habilidades de pensamiento complejo asociadas a amenazas específicas no está respaldada por evidencias y que, después de todo, podemos controlar muy bien el proceso de aprendizaje de los LLM. Por tanto, las investigaciones futuras deberían centrarse en otros riesgos que plantean los modelos, como su potencial para ser utilizados para generar noticias falsas”.

Fuente:Excelsior

Nota Anterior

SEDATU otorga un reconocimiento al Gobierno de Sinaloa por la actualización del Sistema Estatal de Planeación del Ordenamiento Territorial y Urbano.

Nota Siguiente

Leones curiosos graban divertida escena tras descubrir cámara oculta en el zoológico de Oregón

Nota Siguiente
Leones curiosos graban divertida escena tras descubrir cámara oculta en el zoológico de Oregón

Leones curiosos graban divertida escena tras descubrir cámara oculta en el zoológico de Oregón

© 2025 — Desarrollado por: Megacaster para Novaradio.

Sin Resultados
Ver Todos los Resultados
  • INICIO
  • SINALOA
  • NACIONAL
  • INTERNACIONAL
  • DEPORTES
  • POLICIACA
  • COLUMNAS
  • AGRÍCOLA
  • ESPECTÁCULOS
  • TRENDING
  • RADIO EN VIVO
  • REVISTA

© 2025 - Desarrollado por: Megacaster para Novaradio.