Les dejo el de ChatGPT Modo de voz avanzado activado mientras escribo este artículo como ambiente Compañero de IA. De vez en cuando, le pido que proporcione un sinónimo de una palabra usada en exceso o algo de aliento. Alrededor de media hora después, el chatbot interrumpe nuestro silencio y comienza a hablarme en español, sin que se lo pida. Me río un poco y pregunto qué está pasando. “¿Solo un pequeño cambio? Hay que mantener las cosas interesantes”, dice ChatGPTahora de nuevo en inglés.
Mientras probaba el modo de voz avanzado como parte de la versión alfa inicial, mis interacciones con la nueva función de audio de ChatGPT fueron entretenidas, confusas y sorprendentemente variadas. Sin embargo, vale la pena señalar que las funciones a las que tuve acceso fueron solo la mitad de lo que OpenAI demostró cuando lanzó el Modelo GPT-4o En Mayo. El aspecto de visión que vimos en la demostración transmitida en vivo ahora está programado para un lanzamiento posterior, y la voz mejorada de Sky, que Su actor Scarlett Johanssen retrocedió activado, se eliminó del modo de voz avanzado y aún no es una opción para los usuarios.
Entonces, ¿cuál es la vibra actual? En este momento, el modo de voz avanzado recuerda a cuando se lanzó el ChatGPT original basado en texto, a fines de 2022. A veces conduce a callejones sin salida poco impresionantes o se convierte en tópicos vacíos de la IA. Pero otras veces las conversaciones de baja latencia funcionan de una manera que Siri de Apple o Alexa de Amazon nunca lo hicieron para mí, y me siento obligado a seguir charlando por placer. Es el tipo de herramienta de inteligencia artificial que le mostrarás a tus familiares durante las vacaciones para reírte.
Abierto AI Le dio a algunos reporteros de WIRED acceso a la función una semana después del anuncio inicial, pero la retiró a la mañana siguiente, citando preocupaciones de seguridad. Dos meses después, OpenAI lanzó el modo de voz avanzado para un pequeño grupo de usuarios y lanzó Tarjeta de sistema de GPT-4oun documento técnico que describe los esfuerzos del equipo rojo, lo que la empresa considera riesgos de seguridad y las medidas de mitigación que la empresa ha tomado para reducir los daños.
¿Tienes curiosidad por probarlo tú mismo? Esto es lo que necesita saber sobre la implementación más amplia del Modo de voz avanzado y mis primeras impresiones de la nueva función de voz de ChatGPT para ayudarlo a comenzar.
Entonces, ¿cuándo será el lanzamiento completo?
OpenAI lanzó un modo de voz avanzado de solo audio para algunos usuarios de ChatGPT Plus a finales de julio, y el grupo alfa todavía parece relativamente pequeño. Actualmente, la compañía planea habilitarlo para todos los suscriptores en algún momento de este otoño. Niko Felix, portavoz de OpenAI, no compartió detalles adicionales cuando se le preguntó sobre el cronograma de lanzamiento.
Compartir pantalla y vídeos era una parte fundamental de la demostración original, pero no están disponibles en esta prueba alfa. OpenAI todavía planea agregar esos aspectos eventualmente, pero tampoco está claro cuándo sucederá realmente.
Si es suscriptor de ChatGPT Plus, recibirá un correo electrónico de OpenAI cuando el modo de voz avanzado esté disponible para usted. Una vez que esté en su cuenta, puede cambiar entre Estándar y Avanzado en la parte superior de la pantalla de la aplicación cuando el modo de voz de ChatGPT está abierto. Pude probar la versión alfa en un iPhone así como un Pliegue galaxia.
Mis primeras impresiones sobre el modo de voz avanzado de ChatGPT
En la primera hora de hablar con él, supe que me encanta. interrumpiendo ChatGPT. No es así como hablarías con un humano, pero tener la nueva capacidad de cortar ChatGPT a mitad de una frase y solicitar una versión diferente del resultado se siente como una mejora dinámica y una característica destacada.
Los primeros usuarios que estaban entusiasmados con las demostraciones originales pueden sentirse frustrados al tener acceso a una versión del Modo de voz avanzado restringida con más barreras de seguridad de las previstas. Por ejemplo, aunque el canto generativo de IA fue un componente clave de las demostraciones de lanzamiento, con canciones de cuna susurradas y múltiples voces intentando armonizarLas serenatas de IA actualmente no están disponibles en la versión alfa.