Poder hablar con las máquinas no es nuevo. Llevamos años dándole la tabarra a Alexa, Siri o el asistente de Google para que nos pongan una alarma o nos digan el tiempo. Sin embargo, teníamos que hablarles en
su idioma. Que es más o menos el nuestro, pero si me permitís, más "robótico". Entienden ciertos giros y podemos hablar de forma natural, pero la interacción no es del todo fluida. Casi siempre hablamos con las máquinas solo cuando no queda otra.
Eso podría cambiar con
GPT-4o, el nuevo modelo de OpenAI que es básicamente GPT-4 en precisión, pero que hace algo mucho mejor que su predecesor:
hablar. Lo hace con una voz sintética asombrosamente humana en la que las pausas, las inflexiones y las risas se añaden a una comprensión del lenguaje espectacular y a otra característica aún más importante: la latencia (el tiempo que tarda en contestarnos) es casi inexistente. La impresión de hablar con alguien humano al otro lado está más lograda que nunca, y eso es inquietante,
pero también asombroso. Y si no, atentos a las demos que confirmaban el potencial de la IA
como profesor particular o como
lazarillo para ciegos.
En Google no han querido quedarse atrás, y esta semana han presentado una
avalancha de novedades. Tenemos
mejoras en Gemini 1.5, nuevos
nuevos modelos de IA generativa y la promesa de
un buscador en el que la IA mostrará siempre la respuesta perfecta, pero hay algo más. En Google también tenían su particular apuesta por una IA dicharachera.
Su Project Astra promete básicamente lo mismo que GPT-4o, pero con un tirabuzón: vimos cómo ese modelo funcionaba integrado en unas
gafas de realidad aumentada.
¿Acabaremos todos como en 'Her', viendo a la gente pasar y hablando consigo mismos (o más bien, con sus gafas)?
Qué miedito. O no. No sé.
No hay comentarios:
Publicar un comentario