Google Lança Gemini 3.1 Flash Live: Um Modelo de Voz Multimodal em Tempo Real para Áudio, Vídeo e Uso de Ferramentas de Baixa Latência para Agentes de IA

Google Lança Gemini 3.1 Flash Live: Um Modelo de Voz Multimodal em Tempo Real para Áudio, Vídeo e Uso de Ferramentas de Baixa Latência para Agentes de IA

O Google lançou o Gemini 3.1 Flash Live em prévia para desenvolvedores através da Gemini Live API no Google AI Studio. Este modelo visa interações de voz em tempo real de baixa latência, mais naturais e confiáveis, servindo como o 'modelo de áudio e fala de mais alta qualidade do Google até o momento'. Ao processar nativamente fluxos multimodais, o lançamento fornece uma base técnica para construir [...]

O Google lançou o Gemini 3.1 Flash Live em prévia para desenvolvedores através da Gemini Live API no Google AI Studio. Este modelo visa interações de voz em tempo real de baixa latência, mais naturais e confiáveis, servindo como o 'modelo de áudio e fala de mais alta qualidade do Google até o momento'. Ao processar nativamente fluxos multimodais, o lançamento fornece uma base técnica para construir agentes focados em voz que superam as restrições de latência das arquiteturas tradicionais de LLM baseadas em turnos. https://blog.google/innovation-and-ai/models-and-research/gemini-models/gemini-3-1-flash-live/ É o fim da 'Pilha de Tempo de Espera' ('Wait-Time Stack')? O problema central das implementações anteriores de voz-IA era a 'pilha de tempo de espera': a Detecção de Atividade de Voz (VAD) esperava pelo silêncio, depois Transcrevia (STT), depois Gerava (LLM), depois Sintetizava (TTS). No momento em que a IA falava, o humano já havia passado para outra coisa. O Gemini 3.1 Flash Live colapsa essa pilha através do processamento nativo de áudio. O modelo não 'lê' apenas uma transcrição; ele processa diretamente as nuances acústicas. De acordo com as métricas internas do Google, o modelo é significativamente mais eficaz no reconhecimento de tom e ritmo do que o anterior 2.5 Flash Native Audio. Ainda mais impressionante é seu desempenho em ambientes 'rUidOsOs' do mundo real. Em testes envolvendo ruído de tráfego ou bate-papo de fundo, o modelo 3.1 Flash Live discerniu a fala relevante dos sons ambientais com precisão sem precedentes. Esta é uma vitória crucial para desenvolvedores que constroem assistentes móveis ou agentes de atendimento ao cliente que operam na rua em vez de um estúdio silencioso. A API Multimodal Live Para desenvolvedores de IA, a verdadeira mudança acontece dentro da API Multimodal Live. Esta é uma interface de streaming estado-e-bi-direcional que usa WebSockets (WSS) para manter uma conexão persistente entre o cliente e o modelo. Ao contrário das APIs RESTful padrão que lidam com uma solicitação por vez, a Live API permite um fluxo contínuo de dados. Aqui está a análise técnica do pipeline de dados: Entrada de Áudio: O modelo espera áudio PCM de 16 bits bruto a 16kHz, little-endian. Saída de Áudio: Ele retorna dados de áudio PCM brutos, efetivamente ignorando a latência de uma etapa separada de texto-para-fala. Contexto Visual: Você pode transmitir quadros de vídeo como imagens JPEG ou PNG individuais a uma taxa de aproximadamente 1 quadro por segundo (FPS). Protocolo: Um único evento do servidor agora pode agrupar várias partes de conteúdo simultaneamente – como fragmentos de áudio e seus c

modelos multimodaisagentes de IAGoogle AI