Las personalidades de la ciencia y el desarrollo tecnológico solicitaron un parate hasta que los sistemas de inteligencia artificial como ChatGPT sean "más precisos, fiables y leales"
La inteligencia artificial está en boca de todo el mundo sobre todo a partir del desarrollo de ChatGPT, el robot o "bot" de conversación que resuelve todo tipo de problemas. Los sitios de tecnología prácticamente no hablan de otra cosa y se está especulando con aplicaciones que prácticamente cambiarán la forma que conocemos de interactuar con el mundo. Pero sin embargo, personalidades de la ciencia y de las empresas tecnológicas, entre los que figuran Elon Musk y Steve Wozniak, cofundador de Apple, pidieron un parate en su desarrollo hasta que los sistemas sean "más precisos, fiables y leales".
"Pedimos a todos los laboratorios de IA que pausen inmediatamente durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que GPT-4", dice la carta abierta firmada por, entre otros, los citados Musk y Wozniak, Jaan Tallinn (cofundador de Skype) y Max Tegmark (del Instituto de Tecnología de Massachusetts, MIT).
El texto, firmado por más de 1.000 personalidades del mundo tecnológico, pone en tela de juicio los rápidos avances de los sistemas de inteligencia artificial. En concreto, aquellos que supongan una capacidad superior a la de GPT-4.
"Profundos riesgos"
La carta -cuya versión original en inglés se puede leer en este enlace deja claro, en primer lugar, que el desarrollo en sistemas de IA puede representar un cambio profundo en la historia, siempre y cuando se gestione y planifique de forma adecuada: "Los sistemas de IA con inteligencia humana competitiva pueden plantear profundos riesgos para la sociedad y la humanidad, como demuestran numerosas investigaciones y reconocen los principales laboratorios de IA".
"La IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debería planificarse y gestionarse con el cuidado y los recursos adecuados", continúa el texto, pero luego se afirma que "lamentablemente, este nivel de planificación y gestión no se está produciendo, a pesar de que en los últimos meses los laboratorios de IA se han enzarzado en una carrera descontrolada por desarrollar y desplegar mentes digitales cada vez más poderosas que nadie -ni siquiera sus creadores- pueden comprender, predecir o controlar de forma fiable".
Continúa: "Los sistemas contemporáneos de IA están llegando a competir con los humanos en tareas generales, y debemos preguntarnos: ¿Debemos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedades? ¿Debemos automatizar todos los trabajos? ¿Debemos desarrollar mentes no humanas que con el tiempo nos superen en número, inteligencia, obsolescencia y reemplazo?"
Intervención gubernamental
La carta alude directamente a la IA conversacional GTP-4. Tras pedir la interrupción de seis meses para lograr pautas de seguridad y fiabilidad, los expertos afirman que "esta pausa debe ser pública y verificable, e incluir a todos los actores clave. Si esta pausa no puede realizarse rápidamente, los gobiernos deberían intervenir e instituir una moratoria".
Y se insiste: "Esto no significa una pausa en el desarrollo de la IA en general, sino simplemente un paso atrás en la peligrosa carrera hacia modelos de caja negra cada vez más grandes e impredecibles con capacidades emergentes". Ya que "la investigación y el desarrollo de la IA deben volver a centrarse en conseguir que los potentes sistemas actuales sean más precisos, seguros, interpretables, transparentes, robustos, alineados, fiables y leales".
Verano y otoño
Así, se pone sobre la mesa la necesidad de desarrollar nuevos protocolos de seguridad compartidos. "Estos protocolos deberían garantizar que los sistemas que se adhieran a ellos sean seguros más allá de toda duda razonable". Y también se insiste en la necesidad de crear nuevas autoridades reguladoras en materia de IA. Éstas, según la petición, deberían supervisar y seguir "sistemas de IA altamente capaces", amén de impulsar formas para distinguir lo real de lo creado de forma artificial.
Se habla también de regulación legal en términos de posibles daños creados por la IA, rastreo de posibles fugas de datos en estos modelos o sistemas de financiación pública para investigación en materia de seguridad en este campo. "Las instituciones necesitan estar bien dotadas de recursos para hacer frente a las drásticas perturbaciones económicas y políticas (especialmente para la democracia) que causará la IA."
El final del texto apunta a la esperanza de buenas prácticas en el desarrollo de la inteligencia artificial siempre y cuando se tengan en cuenta las pautas explicitadas más arriba. "La humanidad puede disfrutar de un futuro próspero con la IA. Tras haber logrado crear potentes sistemas de IA, ahora podemos disfrutar de un 'verano de la IA' en el que cosechemos los frutos, diseñemos estos sistemas para el claro beneficio de todos y demos a la sociedad la oportunidad de adaptarse. La sociedad ha puesto pausa a otras tecnologías con efectos potencialmente catastróficos para la sociedad. Podemos hacerlo aquí. Disfrutemos de un largo verano de la IA, no nos precipitemos, sin estar preparados, a un otoño".
Predicción
Días atrás, el profesor de ciencias de la informática Geoffrey Hinton, que trabaja para Google y la Universidad de Toronto (Canadá), fue consultado sobre el desarrollo de la inteligencia artificial y su presunta fase superior, la inteligencia artificial general (IAG), que se correspondería con el tipo de inteligencia que posee un ser humano y que podría aprender cualquier cosa.
Hinton asegura que está más cerca de lo que pensamos. "Hasta hace poco, pensaba que pasarían entre 20 y 50 años antes de que tuviéramos IA de propósito general. Y ahora creo que pueden pasar 20 años o menos", predijo Hinton en una entrevista para la CBS. Pero en la nota le preguntaron si es posible que la IA acabe con la humanidad. Hinton fue sincero: "Creo que no es inconcebible. Es todo lo que diré".
Fuente: (Diarios Bonaerenses)