human arm extending to touch fingertips with extended robitic arm

Esta semana en IA: Se acerca una IA más capaz, pero ¿sus beneficios se distribuirán equitativamente?

Hola amigos, bienvenidos al boletín informativo periódico sobre IA de TechCrunch. Si quieres esto en tu bandeja de entrada todos los miércoles, regístrate aquí.

El ciclo de noticias sobre IA no disminuyó mucho en esta temporada navideña. Entre OpenAI 12 días de “shipmas” y DeepSeek lanzamiento del modelo principal el día de Navidadparpadea y te perderás algún nuevo desarrollo.

Y ahora no se está desacelerando. El domingo, el director ejecutivo de OpenAI, Sam Altman dicho en una publicación en su blog personal que cree que OpenAI sabe cómo construir inteligencia artificial general (AGI) y está empezando a orientar su objetivo hacia la superinteligencia.

AGI es un término confuso, pero OpenAI tiene su propia definición: “sistemas altamente autónomos que superan a los humanos en la mayoría de los trabajos económicamente valiosos”. En cuanto a la superinteligencia, que Altman entiende como un paso más allá de la AGI, dijo en la publicación del blog que podría “acelerar masivamente” la innovación mucho más allá de lo que los humanos son capaces de lograr por sí solos.

“(OpenAI continúa) creyendo que poner iterativamente grandes herramientas en manos de las personas conduce a excelentes resultados ampliamente distribuidos”, escribió Altman.

Altman, al igual que el director ejecutivo de Anthropic, rival de OpenAI, Dario Amodei, cree optimista que AGI y la superinteligencia conducirán a riqueza y prosperidad para todos. Pero suponiendo que la AGI y la superinteligencia sean viables sin nuevos avances técnicos, ¿cómo podemos estar seguros de que beneficiarán a todos?

Un dato preocupante reciente es un estudio marcado por el profesor de Wharton Ethan Mollick sobre X a principios de este mes. Investigadores de la Universidad Nacional de Singapur, la Universidad de Rochester y la Universidad de Tsinghua investigaron el impacto del chatbot impulsado por IA de OpenAI. ChatGPTsobre autónomos en diferentes mercados laborales.

El estudio identificó un “punto de inflexión de la IA” económico para diferentes tipos de trabajos. Antes del punto de inflexión, la IA impulsó los ingresos de los autónomos. Por ejemplo, los desarrolladores web experimentaron un aumento de aproximadamente el 65 %. Pero después del punto de inflexión, comenzó la IA. reemplazando autónomos. Los traductores experimentaron una caída aproximada del 30%.

El estudio sugiere que una vez que la IA comienza a reemplazar un trabajo, no invierte el rumbo. Y eso debería preocuparnos a todos si realmente hay una IA más capaz en el horizonte.

Altman escribió en su publicación que está “bastante seguro” de que “todos” verán la importancia de “maximizar los beneficios y el empoderamiento amplios” en la era de la AGI y la superinteligencia. Pero ¿y si se equivoca? ¿Qué pasa si llegan la AGI y la superinteligencia y sólo las corporaciones tienen algo que mostrar?

El resultado no será un mundo mejor, sino más desigualdad. Y si ese es el legado de la IA, será profundamente deprimente.

Noticias

Créditos de imagen:Estudio Moor / Getty Images

Silicon Valley sofoca la fatalidad: Los tecnólogos han estado haciendo sonar las alarmas durante años sobre el potencial de la IA para causar daños catastróficos. Pero en 2024, esas llamadas de advertencia quedaron ahogadas.

OpenAI pierde dinero: El director ejecutivo de OpenAI, Sam Altman, dijo que la empresa actualmente está perdiendo dinero con sus 200 dólares al mes. ChatGPT Pro plan porque la gente lo está usando más de lo que la empresa esperaba.

Financiación récord de IA generativa: Las inversiones en IA generativa, que abarca una gama de aplicaciones, herramientas y servicios impulsados ​​por IA para generar texto, imágenes, vídeos, voz, música y más, alcanzaron nuevas alturas el año pasado.

Microsoft aumenta el gasto en centros de datos: Microsoft ha destinado 80.000 millones de dólares en el año fiscal 2025 para construir centros de datos diseñados para manejar cargas de trabajo de IA.

Grok 3 desaparecido en combate: El modelo de IA de próxima generación de xAI, Grok 3, no llegó a tiempo, lo que se suma a una tendencia de modelos emblemáticos que no cumplieron con las ventanas de lanzamiento prometidas.

Trabajo de investigación de la semana.

La IA podría cometer muchos errores. Pero también puede potenciar a los expertos en su trabajo.

Al menos, esa es la hallazgo de un equipo de investigadores proveniente de la Universidad de Chicago y el MIT. En un nuevo estudio, sugieren que los inversores que utilizan OpenAI GPT-4o para resumir ganancias, las llamadas obtienen mayores rendimientos que aquellas que no lo hacen.

Los investigadores reclutaron inversores y pidieron a GPT-4o que les proporcionara resúmenes de IA alineados con su experiencia en inversiones. Los inversores sofisticados obtuvieron notas más técnicas generadas por IA, mientras que los novatos obtuvieron notas más simples.

Los inversores más experimentados vieron una mejora del 9,6% en sus rendimientos a un año después de usar GPT-4o, mientras que los inversores menos experimentados vieron un aumento del 1,7%. Yo diría que eso no está nada mal para la colaboración entre IA y humanos.

modelo de la semana

METÁGENO-1
Rendimiento de METAGENE-1 en varios puntos de referencia.Créditos de imagen:Intelecto principal

Prime Intellect, una startup que construye infraestructura para la capacitación de sistemas de inteligencia artificial descentralizados, ha liberado un modelo de IA que, según afirma, puede ayudar a detectar patógenos.

El modelo, llamado METAGENE-1, se entrenó en un conjunto de datos de más de 1,5 billones de pares de bases de ADN y ARN secuenciados a partir de muestras de aguas residuales humanas. Creado en asociación con la Universidad del Sur de California y el Observatorio de Ácidos Nucleicos de SecureBio, METAGENE-1 puede usarse para diversas aplicaciones metagenómicas, dijo Prime Intellect, como el estudio de organismos.

“METAGENE-1 logra un rendimiento de vanguardia en varios puntos de referencia genómicos y nuevas evaluaciones centradas en la detección de patógenos humanos”, Prime Intellect escribió en una serie de publicaciones en X. “Después del entrenamiento previo, este modelo está diseñado para ayudar en tareas en las áreas de biovigilancia, monitoreo de pandemias y detección de patógenos”.

bolsa de agarre

En respuesta a acciones legales de los principales editores de músicaAnthropic acordó mantener barreras de seguridad que impidan que su chatbot impulsado por inteligencia artificial, Claude, comparta letras de canciones con derechos de autor.

Los sellos discográficos, incluidos Universal Music Group, Concord Music Group y ABKCO, demandaron a Anthropic en 2023, acusando a la startup de infracción de derechos de autor por entrenar sus sistemas de inteligencia artificial en letras de al menos 500 canciones. La demanda no se ha resuelto, pero por el momento, Anthropic acordó impedir que Claude proporcione letras de canciones propiedad de los editores y cree nuevas letras de canciones basadas en el material protegido por derechos de autor.

“Seguimos esperando demostrar que, de acuerdo con la ley de derechos de autor existente, el uso de material potencialmente protegido por derechos de autor en el entrenamiento de modelos generativos de IA es un uso legítimo por excelencia”, dijo Anthropic en un comunicado.

fuente