Tecnología 13News-Tecnología 26/05/2024

Eric Schmidt, ex-CEO de Google, advierte sobre los riesgos de la IA y propone una solución

Eric Schmidt, antiguo director ejecutivo de Google, ha compartido algunas predicciones inquietantes sobre los riesgos de la inteligencia artificial durante su intervención en la conferencia tecnológica VivaTech 2024 en París

Eric Schmidt, antiguo director ejecutivo de Google, ha compartido algunas predicciones inquietantes sobre los riesgos de la inteligencia artificial durante su intervención en la conferencia tecnológica VivaTech 2024 en París. Schmidt, quien ha invertido en varias empresas de IA desde que dejó su puesto en Google, ha afirmado que si los ordenadores desarrollan libre albedrío, la solución podría ser tan simple como desenchufarlos.

La amenaza del libre albedrío de los ordenadores
Durante su participación en VivaTech 2024, Schmidt planteó la cuestión: "Por cierto, ¿sabéis qué vamos a hacer cuando los ordenadores tengan libre albedrío? Vamos a desenchufarlos". Esta declaración ha generado un debate sobre la posibilidad de que los sistemas de IA tomen consciencia y la capacidad de la humanidad para enfrentarse a este escenario. Yoav Shoham, cofundador y codirector ejecutivo de AI21 Labs, le replicó: "A ver quién desenchufa a quién".

Altcoins con gran potencial tras la aprobación de los ETF spot de Ethereum, según ChatGPT

Inversiones en la lucha contra los riesgos de la IA
A pesar de sus advertencias, Schmidt ha invertido en esfuerzos para combatir los riesgos de la IA. El ex-CEO de Google se asoció con OpenAI para lanzar un programa de subvenciones de 10 millones de dólares destinado a apoyar la investigación técnica con el equipo Superalineación, que se dedicaba a gestionar los riesgos asociados a la inteligencia artificial. Aunque este equipo se disolvió recientemente, OpenAI planea seguir adelante con el programa de subvenciones.

La desinformación y los deepfakes
Schmidt ha señalado que, actualmente, la forma que tiene la IA no es tan peligrosa, a excepción de la desinformación, que considera "fuera de control" y un "verdadero problema para las democracias". La aparición de la inteligencia artificial en los últimos dos años ha agravado el problema de la desinformación, con estudios que demuestran que varios sistemas de IA han aprendido a inducir "falsas creencias para lograr algún resultado distinto de la verdad". Además, los deepfakes, especialmente en el ámbito de la pornografía generada por IA, se han convertido en una preocupación creciente.

El G7 respalda a Japón en su lucha contra la volatilidad excesiva del yen, intentando estabilizar mercado de divisas

Los verdaderos peligros: ataques cibernéticos y biológicos
Según Schmidt, los verdaderos peligros de los grandes modelos lingüísticos que impulsan la inteligencia artificial son los ataques cibernéticos y biológicos, que todavía no han llegado, pero que podrían hacerlo en tres o cinco años. Estas amenazas, advierte el ex-CEO de Google, son las que realmente deberían preocuparnos.

25 de Mayo: Milei anuncia la creación del Consejo de Mayo y promete bajar impuestos tras la aprobación de la Ley Bases

Las advertencias de Eric Schmidt sobre los riesgos de la inteligencia artificial, especialmente en lo que respecta al libre albedrío de los ordenadores y la posibilidad de ataques cibernéticos y biológicos, ponen de manifiesto la necesidad de encontrar un equilibrio en la regulación de la IA para garantizar que no se estrangule la innovación al tiempo que se abordan los peligros potenciales. Aunque la solución propuesta por Schmidt de desenchufar los sistemas de IA puede parecer simplista, subraya la importancia de estar preparados para enfrentar estos desafíos en un futuro cercano.

Te puede interesar

La inteligencia artificial y la demanda de energía: ¿la nueva crisis invisible del siglo XXI?

Los centros de datos podrían concentrar hasta el 8% del consumo eléctrico mundial en 2040. La IA promete optimizar recursos, pero su expansión sin regulación energética es el desafío estructural del siglo.

GPT-5.4: OpenAI lanza el primer modelo de IA que controla ordenadores de forma autónoma

El nuevo sistema integra razonamiento avanzado, codificación y agentes autónomos con capacidad para ejecutar flujos de trabajo complejos sin intervención humana, con un contexto de un millón de tokens. 

Anthropic vs. Pentágono: la batalla por los límites de la IA que divide a Silicon Valley y al Congreso

OpenAI admitió que su acuerdo con el Departamento de Defensa fue "oportunista", mientras demócratas prometen legislación para proteger a empresas que marquen límites éticos al uso militar de la inteligencia artificial.

Anthropic vs. Pentágono: Dario Amodei rechaza uso militar de Claude y enfrenta ultimátum

 
La startup de IA valorada en 380.000 millones de dólares tiene plazo hasta el viernes para ceder ante el Departamento de Defensa, que amenaza con invocar una ley de la Guerra Fría.

Agentes de IA Sin Controles de Seguridad: El Riesgo Sistémico que la Industria Tecnológica No Quiere Mostrar

Un estudio de Cambridge, MIT y Stanford revela que solo 4 de 30 agentes de IA líderes publican documentos formales de seguridad. La autonomía crece. La transparencia, no. Las implicancias para empresas, inversores y usuarios son más graves de lo que el sector reconoce.

Guerra de titanes IA: OpenAI busca u$s100.000 millones y Anthropic vale u$s380.000 millones; la carrera que redefine el capitalismo tecnológico global

Dos rondas de financiación históricas en el mismo mes configuran un nuevo paradigma de concentración de capital en inteligencia artificial. Amazon, SoftBank, Nvidia y Microsoft apuestan cifras sin precedentes mientras surgen interrogantes sobre la sostenibilidad estructural del modelo.