Ross_Maggio
New member
- Registrado
- 27 Sep 2024
- Mensajes
- 51
La carrera por ser quien tiene el mayor dominio sobre la inteligencia artificial —si es que eso es hoy en día algo mínimamente posible— está lejos de llegar a su meta. Sin embargo, lo que nadie pone en duda es que, en pocos años, los límites de este campo se han ampliado de forma exponencial, lo que genera tanto cierto asombro como mucha preocupación.
De estas preocupaciones han hablado una y otra vez los grandes empresarios y figuras relevantes del sector tecnológico. Desde el siempre polémico Elon Musk hasta la mediática Timnit Gebru, la codirectora de Ética para la Inteligencia Artificial que Google despidió por alertar, precisamente, de los peligros de la IA.
Otra de las personas que ha elevado su voz más de una vez sobre los peligros de la inteligencia artificial es el exdirector ejecutivo de Google Eric Schmidt. Ahora, el empresario vuelve a estar en el foco de la actualidad por unas contundentes declaraciones que ha dado en el programa ‘This Week’ de la cadena de televisión estadounidense ABC News.
"Pronto podremos tener ordenadores que funcionen por sí solos"
El que fuera CEO de una de las compañías tecnológicas más importantes del mundo —y una de las que más invierte en investigación y desarrollo en el campo de la IA— ha acudido a una entrevista para hablar de su nuevo libro ‘Genesis’, del que es coautor junto a Henry Kissinger —fallecido el pasado año— y junto al también empresario Craig Mundie, quien fue director de estrategia e investigación de Microsoft.
Bajo el título completo de ‘Genesis: Artificial Intelligence, Hope, and the Human Spirit’, este libro repasa las implicaciones de la IA para el progreso de la humanidad y los desafíos que esta plantea.
“Necesitamos aprovechar el increíble poder de la llegada de la IA y de esta nueva forma de inteligencia, a la vez que preservamos la dignidad y los valores humanos”, comienza diciendo Schmidt. Mantener ese balance de las cosas, anticipa el ex-CEO de Google, “va a ser extremadamente difícil” porque los sistemas “se mueven muy rápidamente”.
Pone como ejemplo las redes sociales y cómo estas han cambiado las cosas en pocos años y las compara con una forma “mucho más inteligente de enviar mensajes, inventar cosas, innovar, descubrir nuevos medicamentos…”, así como “todo tipo de cosas malas, como armas o ciberataques”. Esto está pasando [con la IA] “muy, muy rápido”.
Schmidt tiene claro que “pronto” vamos a tener ordenadores funcionando por sí mismos, “decidiendo qué quieren hacer”. Será, afirma, un proceso que pase por varios escalones, desde los famosos agentes de IA hasta el momento en que le digas al ordenador “aprende todo y haz todo”. “Ese es un punto peligroso”, asegura.
"Cuando el sistema pueda mejorar por sí solo, debemos pensar seriamente en desconectarlo"
A lo que se refiere el exdirector ejecutivo de Google es al punto en que un sistema informático, digital, pueda mejorarse a sí mismo. Schmidt opina que cuando lleguemos a ese momento “tenemos que pensar seriamente en desconectarlo”.
El entrevistador George Stephanopoulos cuestiona si, llegado ese momento, no será ya difícil apagar la máquina, teniendo en cuenta que “ese tipo de sistema ya tendría la habilidad de contrarrestar nuestros esfuerzos para desconectarlo”. El ex-CEO dice entonces, medio en broma, medio en serio, que más nos vale que cuando esto suceda “tengamos a alguien con la mano en el enchufe, metafóricamente hablando”.
Lo importante y preocupante a la vez para Schmidt es lo poderosa que es esta nueva inteligencia, que hará que cada uno de nosotros tengamos “el equivalente a un erudito en nuestro bolsillo”, algo así como tener “un Einstein o un Leonardo da Vinci para aconsejarte”. El directivo teme que esto se nos vaya de las manos: “Simplemente no sabemos qué significa darle ese tipo de poder a cada individuo”.
Stephanopoulos valora si esta falta de control no es algo que ya esté ocurriendo, con todas las empresas que están dedicándose a la IA a diferentes velocidades dentro de la industria.
Schmidt sostiene que “todas las empresas actuales están invirtiendo una gran cantidad de tiempo en testear y asegurarse de que sus modelos no promuevan que te suicides o que te enseñen a crear armas nucleares”, por ejemplo. Lo que sucede, añade, “es que la competencia es tan feroz que hay una preocupación de que una de las compañías decida omitir estos pasos y lanzar algo que realmente pueda hacer algún tipo de daño”.
“¿Hay alguna manera de saber si eso está ocurriendo?”, pregunta Stephanopoulos. “Lo descubriríamos después de que ocurriera”, revela Schmidt. El acuerdo general hoy en día entre las compañías y entre las empresas y los gobiernos es que se prueban los modelos y se someten a filtros, lo que es “algo bueno”, según el experto.
Estados Unidos vs. China: la situación de ambas potencias con respecto a la IA
Durante la entrevista, Schmidt es preguntado por la posición en la que Estados Unidos se encuentra con respecto a China en el terreno de la inteligencia artificial.
El ex-CEO de Google comenta que solía pensar que EE. UU. estaba un par de años por delante, pero que el país asiático “se ha puesto al día en los últimos seis meses de una manera que es extraordinaria”.
En su opinión, el punto en el que los sistemas puedan empezar a hacer su propia investigación llegará en “uno o dos años”. Serán científicos de IA en lugar de científicos humanos y supondrá pasar de tener un millar de personas a tener un millón de estas mentes basadas en inteligencia artificial. “Ahí está la carrera”, destaca Schmidt, y es “crucial que América la gane globalmente y particularmente a China”.
Si fuera emperador del mundo durante una hora...
Schmidt cerraba sus declaraciones sobre la IA en general con un rotundo mensaje: “He estado [en el sector de la tecnología] durante 50 años y nunca había visto innovación a esta escala”.
Para concluir la entrevista, Stephanopoulos preguntaba a Schmidt qué ordenaría que se hiciera para controlar la IA si fuera emperador del mundo durante una hora.
“Lo más importante que haría sería asegurarme de que Occidente gane, lo que significa más dinero, más equipos, más gente, ese tipo de cosas. Lo segundo que haría sería identificar los peores casos posibles y construir un segundo sistema que vigile al primero. Los humanos no podrán controlar la IA, pero los sistemas de IA deberían poder controlar la IA”, concluye.
Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.
Cargando…
www.20minutos.es