Transhumanismo e Inteligencia Artificial
EE.UU., Canadá y China se reúnen para
dar forma a la política de IA
Las principales empresas de inteligencia artificial estadounidenses y canadienses han participado en
colaboraciones discretas con expertos chinos en IA para dar forma a la política internacional de IA.
Según se informa, las empresas de inteligencia artificial, incluidas OpenAI, Anthropic y Cohere, se unieron a las discusiones sobre la mitigación de los riesgos tecnológicos y el establecimiento de estándares globales en Ginebra en julio y octubre de 2023. Las reuniones de Ginebra, facilitadas por la organización de mediación privada Shaikh Group, recibieron el apoyo de la Casa Blanca, el Reino Unido y funcionarios del gobierno chino.
Según múltiples fuentes, en estos estudios participaron científicos y expertos en políticas de las principales organizaciones de IA de América del Norte.
conversaciones diplomáticas encubiertas junto con representantes del Partido Comunista Chino respaldados
Universidad de Tsinghua y otras instituciones respaldadas por el estado. El debate se centró en los riesgos potenciales asociados a la tecnología avanzada de IA, que van desde la desinformación hasta las amenazas contra la cohesión social. Los participantes también profundizaron en la importancia de invertir en investigación de seguridad para garantizar el desarrollo responsable de la IA.
Un negociador anónimo que asistió a las sesiones destacó la importancia de fomentar el consenso internacional, especialmente entre Estados Unidos y China, para establecer estándares globales de seguridad y alineación de la IA. Se dice que los avances logrados durante estas conversaciones influyeron en la configuración de los debates en la reunión del Consejo de Seguridad de las Naciones Unidas sobre IA en julio y en la cumbre sobre IA del Reino Unido en noviembre. Ya están en marcha planes para debates futuros, centrados en propuestas científicas y técnicas para alinear los sistemas de IA con códigos legales, normas y valores sociales.
Sin embargo, las principales empresas chinas de inteligencia artificial, como ByteDance, Tencent y Baidu, no participaron en las conversaciones. Google DeepMind, aunque fue informado sobre las discusiones, tampoco asistió.
Los fabricantes de IA ahora temen a su propia tecnología
El alguna vez celebrado despliegue de tecnologías de inteligencia artificial ahora se ve ensombrecido por temores de impactos negativos, como pérdidas de empleos y preocupaciones éticas. Por ejemplo, el lanzamiento de ChatGPT ha llamado la atención del público sobre los posibles sesgos, discriminación y desplazamiento laboral asociados con la IA, lo que ha llevado a las empresas a reconsiderar sus estrategias.
Además, el reciente despido y la rápida reincorporación del CEO de Openopen AI, Sam Altman, hace unos meses, han desatado una tormenta de especulaciones que supuestamente está relacionado con rumores que rodean un desarrollo innovador en inteligencia general artificial (AGI) conocido como Q*.
Algunos investigadores de OpenAI supuestamente escribieron una carta a la junta directiva de la empresa describiendo los detalles de Q*, pronunciado como Q-Star, afirmando que permite a los robots de IA "superar a los humanos en la mayoría de las tareas económicamente valiosas". Si bien estas afirmaciones no han sido probadas, Reuters informó sobre el supuesto avance, sugiriendo que jugó un papel fundamental en el abrupto despido de Altman.
Han surgido preocupaciones con respecto al ritmo acelerado de comercialización de este modelo avanzado de IA sin una consideración adecuada de sus posibles consecuencias socioeconómicas. Los críticos argumentan que un avance tan rápido puede plantear riesgos para la humanidad y justificar un escrutinio ético exhaustivo antes de cualquier implementación generalizada.
Según una fuente interna anónima, Q* actualmente demuestra la capacidad de resolver problemas matemáticos, pero sólo "al nivel de los estudiantes de primaria". A pesar de su alcance limitado, la ejecución perfecta de estos problemas matemáticos ha despertado entusiasmo entre los investigadores, que expresan optimismo sobre el potencial futuro de Q*.
Antes de su despido, Altman se refirió a Q* durante la reciente Cooperación Económica Asia-Pacífico en San Francisco. En su declaración, Altman dijo: “Cuatro veces en la historia de OpenAI (la vez más reciente fue en las últimas dos semanas) he estado en la sala cuando en cierto modo levantamos el velo de la ignorancia y la frontera del descubrimiento hacia adelante”.
Dentro de OpenAI, parece haber un desacuerdo entre sus miembros con respecto al ritmo del avance tecnológico. Por un lado, algunos abogan por un progreso rápido, queriendo que la tecnología avance rápidamente, mientras que otros prefieren un enfoque más cauteloso, sugiriendo una desaceleración hasta que haya una mejor comprensión del impacto potencial de la tecnología en el mundo.
Buenas noticias para nosotros, los humanos: los robots de IA que tenemos ahora no son tan avanzados como las mentes humanas reales, y queremos que sigan siéndolo. Actualmente, incluso Q* solo puede manejar tareas a nivel de escuela primaria. Pero nadie puede negar su potencial.
"AGI tiene el potencial de superar a los humanos en todos los campos, incluida la creatividad, la resolución de problemas, la toma de decisiones, la comprensión del idioma, etc., lo que genera preocupación sobre un desplazamiento masivo de empleos", explica un informe.
Este artículo se publicó por primera vez en Cyborg News el 16 de enero de 2024 con el título “Empresas de IA de EE. UU. y Canadá COLABORAN con expertos chinos para dar forma a la política internacional de IA”
Lea más artículos de Laura Harris aquí
Según se informa, las empresas de inteligencia artificial, incluidas OpenAI, Anthropic y Cohere, se unieron a las discusiones sobre la mitigación de los riesgos tecnológicos y el establecimiento de estándares globales en Ginebra en julio y octubre de 2023. Las reuniones de Ginebra, facilitadas por la organización de mediación privada Shaikh Group, recibieron el apoyo de la Casa Blanca, el Reino Unido y funcionarios del gobierno chino.
¿Xi y Biden llegaron a acuerdos sobre cuestiones de IA?
Un negociador anónimo que asistió a las sesiones destacó la importancia de fomentar el consenso internacional, especialmente entre Estados Unidos y China, para establecer estándares globales de seguridad y alineación de la IA. Se dice que los avances logrados durante estas conversaciones influyeron en la configuración de los debates en la reunión del Consejo de Seguridad de las Naciones Unidas sobre IA en julio y en la cumbre sobre IA del Reino Unido en noviembre. Ya están en marcha planes para debates futuros, centrados en propuestas científicas y técnicas para alinear los sistemas de IA con códigos legales, normas y valores sociales.
Sin embargo, las principales empresas chinas de inteligencia artificial, como ByteDance, Tencent y Baidu, no participaron en las conversaciones. Google DeepMind, aunque fue informado sobre las discusiones, tampoco asistió.
Los fabricantes de IA ahora temen a su propia tecnología
El alguna vez celebrado despliegue de tecnologías de inteligencia artificial ahora se ve ensombrecido por temores de impactos negativos, como pérdidas de empleos y preocupaciones éticas. Por ejemplo, el lanzamiento de ChatGPT ha llamado la atención del público sobre los posibles sesgos, discriminación y desplazamiento laboral asociados con la IA, lo que ha llevado a las empresas a reconsiderar sus estrategias.
Además, el reciente despido y la rápida reincorporación del CEO de Openopen AI, Sam Altman, hace unos meses, han desatado una tormenta de especulaciones que supuestamente está relacionado con rumores que rodean un desarrollo innovador en inteligencia general artificial (AGI) conocido como Q*.
Algunos investigadores de OpenAI supuestamente escribieron una carta a la junta directiva de la empresa describiendo los detalles de Q*, pronunciado como Q-Star, afirmando que permite a los robots de IA "superar a los humanos en la mayoría de las tareas económicamente valiosas". Si bien estas afirmaciones no han sido probadas, Reuters informó sobre el supuesto avance, sugiriendo que jugó un papel fundamental en el abrupto despido de Altman.
Han surgido preocupaciones con respecto al ritmo acelerado de comercialización de este modelo avanzado de IA sin una consideración adecuada de sus posibles consecuencias socioeconómicas. Los críticos argumentan que un avance tan rápido puede plantear riesgos para la humanidad y justificar un escrutinio ético exhaustivo antes de cualquier implementación generalizada.
Estados Unidos y China acuerdan en secreto políticas de inteligencia artificial
Antes de su despido, Altman se refirió a Q* durante la reciente Cooperación Económica Asia-Pacífico en San Francisco. En su declaración, Altman dijo: “Cuatro veces en la historia de OpenAI (la vez más reciente fue en las últimas dos semanas) he estado en la sala cuando en cierto modo levantamos el velo de la ignorancia y la frontera del descubrimiento hacia adelante”.
Dentro de OpenAI, parece haber un desacuerdo entre sus miembros con respecto al ritmo del avance tecnológico. Por un lado, algunos abogan por un progreso rápido, queriendo que la tecnología avance rápidamente, mientras que otros prefieren un enfoque más cauteloso, sugiriendo una desaceleración hasta que haya una mejor comprensión del impacto potencial de la tecnología en el mundo.
Buenas noticias para nosotros, los humanos: los robots de IA que tenemos ahora no son tan avanzados como las mentes humanas reales, y queremos que sigan siéndolo. Actualmente, incluso Q* solo puede manejar tareas a nivel de escuela primaria. Pero nadie puede negar su potencial.
"AGI tiene el potencial de superar a los humanos en todos los campos, incluida la creatividad, la resolución de problemas, la toma de decisiones, la comprensión del idioma, etc., lo que genera preocupación sobre un desplazamiento masivo de empleos", explica un informe.
Lea más artículos de Laura Harris aquí
Publicado el 30 de enero de 2024
______________________
______________________
Volume I |
Volume II |
Volume III |
Volume IV |
Volume V |
Volume VI |
Volume VII |
Volume VIII |
Volume IX |
Volume X |
Volume XI |
Special Edition |