Esta semana en IA: multimillonarios hablan de trabajo automático
Hola, gente, bienvenido al boletín de IA regular de TechCrunch. Si quieres esto en tu bandeja de entrada todos los miércoles, regístrese aquí.
Es posible que hayas notado que saltamos el boletín la semana pasada. ¿La razón? Un ciclo de noticias de IA caótico hecho aún más pandemonio por El repentino ascenso de la compañía de IA china a la prominenciay la respuesta de prácticamente cada vez es un rincón de la industria y el gobierno.
Afortunadamente, estamos de vuelta en el camino, y ni un momento demasiado pronto, considerando los desarrollos periodísticos del fin de semana pasado de OpenAI.
El CEO de Operai, Sam Altman, se detuvo en Tokio para conversar en el escenario con Masayoshi Son, el CEO del conglomerado japonés SoftBank. SoftBank es un gran opadai inversor y parejateniendo comprometido a ayudar a financiar Proyecto de Infraestructura de Infraestructura de Centro de Datos Masivo de Openai en los EE. UU.
Entonces, Altman probablemente sintió que le debía a Son unas horas de su tiempo.
¿De qué hablaron los dos multimillonarios? Muchos trabajos de abstracto a través de “agentes” de IA, por informe de segunda mano. Son dijo que su compañía gastaría $ 3 mil millones al año en productos Operai y se uniría con OpenAI para desarrollar una plataforma, “Cristal (sic) inteligencia”, con el objetivo de automatizar millones de flujos de trabajo tradicionalmente de cuello blanco.
“Al automatizar y autonomentar todas sus tareas y flujos de trabajo, SoftBank Corp. transformará sus negocios y servicios, y creará un nuevo valor”, dijo SoftBank en un comunicado de prensa el lunes.
Sin embargo, pregunto qué es el humilde trabajador para pensar en toda esta automatización y autonomía.
Como Sebastian Siemiatkowski, el CEO de Fintech Klarna, que a menudo se jacta de la IA reemplazando a los humanosSon parece ser de la opinión de que los sustitutos de la agente para los trabajadores solo pueden precipitar una riqueza fabulosa. Glossed Over es el costo de la abundancia. ¿Debería la automatización generalizada de los trabajos? El desempleo a escala enorme parece el resultado más probable.
Es desalentador que aquellos a la vanguardia de la raza de IA, compañías como OpenAi y inversores como SoftBank, eligan gastar conferencias de prensa pintando una imagen de corporaciones automatizadas con menos trabajadores en la nómina. Son negocios, por supuesto, no organizaciones benéficas. Y el desarrollo de IA no es barato. Pero quizás gente confiaría en ai Si aquellos que guían su despliegue mostraron un poco más de preocupación por su bienestar.
Comida para pensar.
Noticias
Investigación profunda: Operai ha lanzado un nuevo “agente” de IA diseñado para ayudar a las personas a realizar una investigación en profundidad y compleja utilizando ChatGPT, la plataforma ChatBot con motor AI de la compañía.
O3-Mini: En otras noticias de Operai, la compañía lanzó un nuevo modelo de “razonamiento” de AI, O3-Mini, luego de una vista previa en diciembre pasado. No es el modelo más potente de OpenAI, pero O3-Mini cuenta con una mejor eficiencia y velocidad de respuesta.
La UE prohíbe la IA arriesgada: Hasta el domingo en la Unión Europea, los reguladores del bloque pueden prohibir el uso de los sistemas de IA que consideran para plantear “riesgo inaceptable” o daño. Eso incluye la IA utilizada para la puntuación social y la publicidad subliminal.
Una obra de AI “Doomers”: Hay un nuevo juego sobre la cultura de AI “Doomer”, basada libremente en El expulsado de Sam Altman como CEO de OpenAi En noviembre de 2023. Mis colegas Dominic y Rebecca comparten sus pensamientos después de ver el estreno.
Tecnología para aumentar los rendimientos de las cosechas: X “Moonshot Factory” de Google anunció esta semana su último graduado. Agricultura heredable es una startup impulsada por el aprendizaje de datos y máquina con el objetivo de mejorar la forma en que se cultivan los cultivos.
Documento de investigación de la semana
Los modelos de razonamiento son mejores que su IA promedio para resolver problemas, particularmente consultas relacionadas con la ciencia y las matemáticas. Pero no son bala de plata.
A Nuevo estudio de investigadores de la empresa china Tencent Investiga el tema de “inferior” en modelos de razonamiento, donde los modelos prematuramente, inexplicablemente abandonan las cadenas de pensamiento potencialmente prometedoras. Según los resultados del estudio, los patrones de “pensamiento subyacente” tienden a ocurrir con mayor frecuencia con problemas más difíciles, lo que lleva a los modelos a cambiar entre cadenas de razonamiento sin llegar a las respuestas.
El equipo propone una solución que emplea una “penalización de cambio de pensamiento” para alentar a los modelos a desarrollar “completamente” cada línea de razonamiento antes de considerar las alternativas, lo que aumenta la precisión de los modelos.
Modelo de la semana
Un equipo de investigadores respaldado por el propietario de Tiktok Bytedance, la compañía china de IA Moonshot y otros publicaron un nuevo modelo abierto capaz de generar música de calidad relativamente alta a partir de indicaciones.
El modelo, llamado Yuepuede generar una canción hasta unos minutos de longitud completa con voces y pistas de respaldo. Está bajo una licencia Apache 2.0, lo que significa que el modelo se puede usar comercialmente sin restricciones.
Sin embargo, hay inconvenientes. Correr Yue requiere una GPU robusta; Generar una canción de 30 segundos lleva seis minutos con un NVIDIA RTX 4090. Además, no está claro si el modelo fue entrenado utilizando datos con derechos de autor; Sus creadores no han dicho. Si resulta que las canciones con derechos de autor estaban realmente en el conjunto de capacitación del modelo, los usuarios podrían enfrentar futuros desafíos de IP.
Bolsa de agarre

AI Lab Anthrope afirma que ha desarrollado una técnica para defenderse de manera más confiable contra los “jailbreaks” de IA, los métodos que pueden usarse para evitar las medidas de seguridad de un sistema de IA.
La técnica, Clasificadores constitucionalesse basa en dos conjuntos de modelos AI “clasificador”: un clasificador de “entrada” y un clasificador de “salida”. El clasificador de entrada agrega indicaciones a un modelo salvaguardado con plantillas que describen jailbreaks y otro contenido no permitido, mientras que el clasificador de salida calcula la probabilidad de que una respuesta de un modelo discute información perjudicial.
Anthrope dice que los clasificadores constitucionales pueden filtrar la “mayoría abrumadora” de los jailbreaks. Sin embargo, tiene un costo. Cada consulta es un 25% más exigente computacionalmente, y el modelo salvaguardado tiene un 0,38% menos probabilidades de responder preguntas inocuas.