El avance desenfrenado de la inteligencia artificial ha presionado a las grandes compañías tecnológicas, Google, Microsoft, OpenAI y Athropic a generar Frontier Model Forum, una iniciativa de apoyo a los investigadores independientes para crear herramientas especiales que evalúen y aprueben los modelos de IA más avanzados. Este proyecto ha obtenido una financiación inicial de 10 millones de dólares y permitirá garantizar un desarrollo de aplicaciones con IA seguro para las personas.
<<<E-skimming: ¿qué es y cómo proteger tu tienda online?>>>
El Foro es una suerte de respuesta de los gigantes tecnológicos a las crecientes demandas y preocupaciones en torno a los alcances de la inteligencia artificial en la vida de la población y en el mundo empresarial. Como las compañías involucradas en el proyecto son desarrolladoras de softwares basados en IA, entienden muy bien las posibles implicaciones de lanzar tantas soluciones tecnológicas dentro de un marco regulatorio visiblemente escaso con respecto a los usos de la IA.
Es justamente con la idea de facilitar el debate y la toma de decisiones sobre la mejor forma de utilizar las herramientas de inteligencia artificial que surgió esta iniciativa del Foro, buscando ofrecer mayor seguridad, tanto en el manejo de la información de los usuarios como en el aprendizaje de sus principales funcionalidades. En este artículo, te contamos en qué consiste Frontier Model Forum y de qué manera sus creadores piensan regular el uso de la IA en las organizaciones.
¿Qué es Frontier Model Forum?
A principios de 2023, los miembros del Foro firmaron un acuerdo de IA en la Casa Blanca, que incluía el compromiso de promover el descubrimiento por parte de terceros y la notificación de vulnerabilidades en los sistemas de IA. El organismo asegura que el Fondo de Seguridad de la IA es un aspecto relevante para el cumplimiento de este acuerdo, por lo que la financiación a la comunidad externa permitirá evaluar y comprender más acertadamente cómo operan los sistemas más avanzados.
El objetivo principal del Fondo para la Seguridad de la IA es sostener el desarrollo de las evaluaciones de modelos y técnicas de read teaming de sistemas de IA para crear y probar técnicas de evaluación de las capacidades que impliquen un riesgo potencial para el trabajo de las personas. Además, la entidad afirma que una mayor financiación permitirá elevar los estándares de seguridad y brindará información necesaria sobre las medidas de regulación y control que los organismos gubernamentales necesitan para llevar tranquilidad sobre el futuro de la IA.
<<<Google Gemini: Qué propone el supuesto "GPT Killer">>>
Chris Meserole, el máximo comisionado de Frontier Model Forum fue quien realizó la jugosa inversión y ha demostrado no ser un improvisado en materia de regulación tecnológica, ya que ha trabajado en gobernanza y seguridad de las tecnologías emergentes y sus aplicaciones en el mercado. Antes de integrar el foro, Meserole fue además director de la iniciativa sobre Inteligencia Artificial y Tecnologías Emergentes de Brookings Institution. Su función en este nuevo cargo será la de impulsar la investigación sobre seguridad de la inteligencia artificial para fomentar el uso responsable de los modelos más avanzados de IA y reducir las amenazas potenciales. Dentro de estas prácticas que darán luz verde al desarrollo seguro de nuevas herramientas basadas en IA se destacan:
- Acciones orientadas a mejorar la seguridad de los nuevos modelos.
- Conocimientos compartidos con los responsables políticos, el entorno académico, la sociedad y otros organismos.
- Abordaje de los mayores desafíos sobre la implementación y aprendizaje de la IA en el mundo de los negocios.
Asimismo, cabe mencionar las iniciativas gubernamentales y multilaterales con las que el Foro va a contribuir. Estas son el proceso de Hiroshima del G7, el trabajo de la OCDE sobre riesgos, estándares e impacto social de la IA y el Consejo de Comercio y Tecnología entre Estados Unidos y la UE. Por otro lado, iniciativas como la Asociación sobre la IA y MLCommons realizan valiosos aportes a toda la comunidad científica que trabaja con IA, y es allí donde Frontier Model Forum se involucra activamente en la regulación y mejora de las soluciones de IA.
<<<Amazon Q: el nuevo chatbot de IA para empresas>>>
Finalmente, con este proyecto de Frontier Model Forum las mismas empresas que estaban diseñando y lanzando las herramientas basadas en IA más revolucionarias, y también polémicas, del mundo globalizado han tomado conciencia sobre la necesidad de controlar y regular la actividad que desempeña la inteligencia artificial como tecnología de desarrollo empresarial y solución complementaria para facilitar la vida de las personas.
¿Nos dejas un comentario?