Tecnología 13news-Tecnología 06/04/2024

Hay un riesgo que la Inteligencia Artificial acabe con la humanidad, según Elon Musk

El magnate tecnológico Elon Musk ha vuelto a hacer declaraciones controvertidas sobre el futuro de la inteligencia artificial (IA) y su potencial impacto en la humanidad

El magnate tecnológico Elon Musk ha vuelto a hacer declaraciones controvertidas sobre el futuro de la inteligencia artificial (IA) y su potencial impacto en la humanidad. Durante su participación en el seminario "El gran debate de la IA", celebrado en el marco del evento anual Abundance Summit, Musk afirmó que existe "alguna posibilidad" de que la inteligencia artificial "acabe con la humanidad", estimando que el porcentaje de riesgo se sitúa entre un 10% y un 20%.

Musk, quien ha estado involucrado en el ámbito de la IA desde 2015, cuando cofundó la empresa OpenAI junto a Sam Altman, no se refirió específicamente al riesgo de que la tecnología se vuelva en contra de los seres humanos. Sin embargo, sus palabras han generado un intenso debate en la comunidad científica y tecnológica sobre los posibles escenarios futuros y las medidas necesarias para garantizar un desarrollo seguro y ético de la IA.

Roman Yampolskiy, investigador de seguridad de la IA y director del Laboratorio de Seguridad Cibernética de la Universidad de Louisville, coincide con Musk en que la inteligencia artificial podría suponer un riesgo para la humanidad, aunque considera que la evaluación del empresario es "un poco demasiado conservadora". Según Yampolskiy, los porcentajes de riesgo estimados por expertos en el campo oscilan entre el 5% y el 50%, lo que pone de manifiesto la incertidumbre que rodea a esta tecnología y la necesidad de abordar sus implicaciones de manera responsable.

Inteligencia Artificial y Educación: ¿cómo puede ayudar en los países en desarrollo?

Durante su intervención en el seminario, Musk también comparó el desarrollo de la IA con la crianza de un niño, enfatizando la importancia de fomentar una "búsqueda máxima de la verdad" y una "IA curiosa". El magnate subrayó que la IA no debe estar obligada a mentir para evitar comportamientos engañosos, aunque la verdad pueda resultar desagradable.

Estas declaraciones se suman a la reciente polémica generada por la creación de xAI, la nueva empresa de Musk dedicada a la inteligencia artificial, y el desarrollo del chatbot Grok. Si bien los detalles sobre estos proyectos aún son escasos, el empresario ha dejado claro que su enfoque se centra en la búsqueda de la verdad y en evitar la "corrección política" en el entrenamiento de sus modelos de IA.

Tesla Robotaxi: El ambicioso proyecto de Elon Musk que podría revolucionar el transporte

El debate sobre la regulación de la inteligencia artificial ha cobrado fuerza en los últimos años, especialmente en el ámbito de la Unión Europea, que ha propuesto un marco normativo para garantizar un uso ético y seguro de esta tecnología. Mientras algunos expertos abogan por una regulación flexible que fomente el progreso y el crecimiento económico, otros advierten sobre los riesgos de una falta de control y supervisión adecuados.

En este contexto, las palabras de Elon Musk sirven como un recordatorio de la importancia de abordar los desafíos éticos y de seguridad que plantea la IA de manera proactiva y responsable. Solo a través de un diálogo abierto y constructivo entre la comunidad científica, la industria tecnológica y los responsables políticos, será posible desarrollar estrategias efectivas para aprovechar el potencial de la inteligencia artificial al tiempo que se minimizan sus riesgos y se protege el bienestar de la humanidad.

Te puede interesar

Rapidus: El Nuevo Gigante Japonés que Amenaza el Dominio de Samsung y TSMC en la Industria de Semiconductores

Rapidus Corporation, una empresa japonesa relativamente desconocida hasta ahora, está posicionándose para desafiar a los gigantes establecidos con una propuesta innovadora que podría redefinir los estándares de eficiencia y producción en la industria de semiconductores

Blockchain e IA: El futuro de la seguridad en identidad digital enfrenta desafíos éticos

Ramiro Raposo, VP de Growth de Bitwage, ha arrojado luz sobre cómo las tecnologías emergentes como blockchain e inteligencia artificial (IA) podrían ser la clave para salvaguardar nuestros datos personales, aunque no sin plantear importantes cuestiones éticas

Tesla en problemas: Resultados decepcionantes y preocupaciones de Elon Musk sacuden al gigante de los vehículos eléctricos

Tesla, el líder mundial en vehículos eléctricos, se encuentra en una encrucijada tras presentar resultados financieros decepcionantes en el segundo trimestre de 2024

Irlanda inicia investigación sobre Inteligencia Artificial de Google

La Comisión de Protección de Datos (DPC) de Irlanda ha lanzado una investigación transfronteriza sobre Google Ireland Limited para evaluar si la compañía cumplió con las leyes de protección de datos de la Unión Europea durante el desarrollo de su modelo de inteligencia artificial PaLM2

Elon Musk vs. El Mundo: Las Batallas del Multimillonario Contra la Élite Tecnológica en 2024

Elon Musk, el controvertido multimillonario y CEO de empresas como Tesla, SpaceX y X (anteriormente Twitter), ha protagonizado una serie de enfrentamientos públicos con otros titanes de la industria tecnológica y filántropos durante el año 2024

La Ley Europea de IA entra en vigor: Regulaciones, prohibiciones y multas millonarias

Esta normativa, conocida como la Ley Europea de Inteligencia Artificial o Ley de IA, entró en vigor el 1 de agosto de 2024, marcando un hito en la regulación de una tecnología que está transformando rápidamente nuestra sociedad

OpenAI respalda ley californiana para etiquetar contenido de IA: Un paso hacia la transparencia digital

Esta legislación propone implementar un sistema de marcado para identificar contenidos generados por IA, incluyendo imágenes, videos y archivos de audio

Gigantes tecnológicos contra la UE: ¿Frena la regulación de IA el progreso digital en Europa?

Los CEOs de Meta y Spotify han lanzado una crítica conjunta contra la normativa de inteligencia artificial (IA) de la Unión Europea, argumentando que estas regulaciones están obstaculizando la innovación y poniendo en desventaja a las empresas europeas en la carrera global por el desarrollo de IA

La Alianza ASI impulsa la descentralización en la nube para democratizar el desarrollo de la IA

Esta propuesta, anunciada recientemente a través de la plataforma X, busca abordar las vulnerabilidades inherentes a los servicios centralizados en la nube y democratizar el acceso a los recursos computacionales necesarios para el avance de la IA