Tecnología 13News-Tecnología 25/04/2024

¿Es posible una Inteligencia Artificial centrada en las personas y con un propósito claro?

En el segundo encuentro de las 'Conversaciones Humanitarias generadoras de talento', impulsadas por la Fundación Cruz Roja Española, destacados expertos en Inteligencia Artificial (IA) han abordado los retos y oportunidades que presenta esta tecnología

En el segundo encuentro de las 'Conversaciones Humanitarias generadoras de talento', impulsadas por la Fundación Cruz Roja Española, destacados expertos en Inteligencia Artificial (IA) han abordado los retos y oportunidades que presenta esta tecnología. Nuria Oliver, doctora en IA por el MIT; Cristina Aranda, cofundadora de Mujeres Tech; y José María Lasalle, director del Foro de Humanismo Tecnológico de ESADE, han coincidido en la necesidad de un uso concienciado de la IA, centrada en las personas y con un propósito claro, para garantizar que pueda abordar los principales desafíos de nuestro tiempo de forma efectiva y sin riesgos.

Nuria Oliver ha destacado la importancia de trabajar en una IA centrada en las personas para hacer frente a retos como la crisis climática y energética o el envejecimiento de la población. Sin embargo, también ha señalado la necesidad de abordar las limitaciones de esta tecnología, como la violación de la privacidad, la estereotipación, la falta de veracidad y los sesgos algorítmicos, a través de investigaciones libres de intereses económicos.

Expertos predicen un aumento significativo del precio de Bitcoin en 2024: ¿Hasta dónde podría llegar?

Por su parte, José María Lasalle ha subrayado la importancia de reflexionar sobre el propósito y el sentido más profundo que debe acompañar a la IA, ya que está modificando no solo los comportamientos del ser humano, sino también la manera en que éstos se relacionan con la realidad. Según Lasalle, el desarrollo de la IA requiere una reflexión moral y un sentido humanista, más allá de consideraciones éticas o de tratar que esta tecnología se asocie a un uso positivo y al bienestar.

Cristina Aranda ha planteado la necesidad de un control a través de una regulación mundial, así como una formación humanista de los profesionales que trabajan con datos. Ha destacado la importancia de incorporar la ética dentro del diseño de las soluciones de IA para hacerla más inclusiva y con un impacto más social. Además, ha señalado que la IA no posee "inteligencia emocional", algo que diferencia a las personas de las máquinas.

Threads de Meta alcanza los 150 millones de usuarios activos mensuales en su competencia con Twitter

Los participantes también han abordado la incidencia que la IA puede tener en aspectos como el empleo, la salud, el cambio climático o la educación. Nuria Oliver ha explicado cómo la IA puede ayudar a tomar mejores decisiones en línea con los Objetivos de Desarrollo Sostenible (ODS), mientras que Cristina Aranda ha citado ejemplos de aplicaciones en el ámbito de la salud, como la detección de estados de ánimo en enfermos oncológicos o la detección de conductas suicidas a través de las redes sociales.

En el ámbito de la educación, Nuria Oliver ha señalado que la IA abre la posibilidad de tener una educación personalizada, adaptada a las necesidades individuales de cada alumno, y de atender las diversidades funcionales de las personas.

Cómo Nvidia transformó vidas con ganancias millonarias: La fortuna de los inversores minoristas

José María Lasalle ha advertido que el cambio tecnológico no supone necesariamente una proyección escalada de la justicia, la igualdad o el progreso, y ha instado a tener una precaución reforzada en el fomento de la IA, teniendo muy presentes la agenda relativa a las desigualdades y los vacíos éticos.

En conclusión, los expertos coinciden en la necesidad de un desarrollo consciente y responsable de la Inteligencia Artificial, centrado en las personas y con un propósito claro, para aprovechar al máximo su potencial en beneficio de la sociedad y hacer frente a los principales desafíos de nuestro tiempo, sin olvidar la importancia de abordar los riesgos y limitaciones que conlleva esta tecnología.

Te puede interesar

La inteligencia artificial y la demanda de energía: ¿la nueva crisis invisible del siglo XXI?

Los centros de datos podrían concentrar hasta el 8% del consumo eléctrico mundial en 2040. La IA promete optimizar recursos, pero su expansión sin regulación energética es el desafío estructural del siglo.

GPT-5.4: OpenAI lanza el primer modelo de IA que controla ordenadores de forma autónoma

El nuevo sistema integra razonamiento avanzado, codificación y agentes autónomos con capacidad para ejecutar flujos de trabajo complejos sin intervención humana, con un contexto de un millón de tokens. 

Anthropic vs. Pentágono: la batalla por los límites de la IA que divide a Silicon Valley y al Congreso

OpenAI admitió que su acuerdo con el Departamento de Defensa fue "oportunista", mientras demócratas prometen legislación para proteger a empresas que marquen límites éticos al uso militar de la inteligencia artificial.

Anthropic vs. Pentágono: Dario Amodei rechaza uso militar de Claude y enfrenta ultimátum

 
La startup de IA valorada en 380.000 millones de dólares tiene plazo hasta el viernes para ceder ante el Departamento de Defensa, que amenaza con invocar una ley de la Guerra Fría.

Agentes de IA Sin Controles de Seguridad: El Riesgo Sistémico que la Industria Tecnológica No Quiere Mostrar

Un estudio de Cambridge, MIT y Stanford revela que solo 4 de 30 agentes de IA líderes publican documentos formales de seguridad. La autonomía crece. La transparencia, no. Las implicancias para empresas, inversores y usuarios son más graves de lo que el sector reconoce.

Guerra de titanes IA: OpenAI busca u$s100.000 millones y Anthropic vale u$s380.000 millones; la carrera que redefine el capitalismo tecnológico global

Dos rondas de financiación históricas en el mismo mes configuran un nuevo paradigma de concentración de capital en inteligencia artificial. Amazon, SoftBank, Nvidia y Microsoft apuestan cifras sin precedentes mientras surgen interrogantes sobre la sostenibilidad estructural del modelo.