A OpenAI iniciou a implementação de uma atualização significativa para o ChatGPT, focada em resolver uma das queixas mais frequentes dos usuários: a dificuldade em localizar conversas antigas. O novo recurso de busca avançada no histórico promete tornar o chatbot mais confiável ao lembrar e encontrar interações passadas, embora, neste momento inicial, a novidade esteja restrita aos assinantes dos planos Plus e Pro.
Até então, o histórico de bate-papo existia, mas a funcionalidade de busca deixava a desejar, falhando frequentemente em encontrar tópicos específicos, especialmente quando o usuário possuía diversas conversas sobre temas similares. A própria empresa reconheceu essa limitação técnica e confirmou, nas notas de lançamento atualizadas, que a ferramenta agora consegue localizar detalhes específicos com maior precisão quando solicitada. Uma adição interessante é que qualquer conversa anterior utilizada para responder a uma nova pergunta aparecerá como uma fonte citada, permitindo que o usuário clique e revise o contexto original daquela informação.
Novos níveis de personalização e ditado
Esta atualização na memória e busca não chega sozinha. Ela complementa um pacote de melhorias que a OpenAI vem introduzindo desde dezembro, quando lançou novas opções de “personalidade” para a IA. Agora, através do painel de personalização nas configurações, os usuários têm um controle muito mais granular sobre como o ChatGPT se comporta. É possível ajustar se as respostas devem ser mais ou menos calorosas, regular o nível de entusiasmo e até definir a frequência com que a IA utiliza emojis ou estruturas de formatação, como cabeçalhos e listas.
Paralelamente aos ajustes de texto, a capacidade de ditado para todos os usuários logados recebeu melhorias substanciais. A transcrição de voz está mais precisa, reduzindo drasticamente os casos de transcrições vazias ou erros de interpretação da fala.
Da teoria à prática: Testando produtos com a IA
Enquanto a ferramenta se torna tecnicamente mais robusta, fundadores e gerentes de produto estão encontrando maneiras inovadoras de aplicar essas capacidades para “estressar” seus projetos antes mesmo do lançamento. Assim como nas montagens de filmes espaciais, onde cada parafuso é apertado antes da contagem regressiva, o processo de validação de um produto é crucial. A boa notícia é que o ChatGPT pode acelerar essa etapa tediosa, permitindo identificar falhas que passariam despercebidas.
Muitos empreendedores criam empresas para resolver problemas próprios — o famoso “coçar a própria coceira”. Embora seja um ótimo ponto de partida, isso gera um viés perigoso: o fundador acaba se apaixonando pela própria narrativa e esquecendo que o usuário final pode ter prioridades completamente diferentes. É aqui que os Grandes Modelos de Linguagem (LLMs) mostram seu valor prático, simulando cenários do mundo real.
Simulação de personas e entrevistas
Para evitar a miopia de produto, é possível instruir a IA a criar diversas “personas” que representem a base futura de clientes — sejam eles donos de pequenos negócios, profissionais de marketing ou coordenadores de ONGs. O passo seguinte é conduzir entrevistas rápidas com essas personas simuladas, pedindo que reajam à proposta de valor do produto, comparem com concorrentes e articulem o que os faria fechar negócio ou desistir da compra. O resultado costuma ser uma varredura rápida e surpreendentemente reveladora de pontos de atrito que o criador do produto jamais teria imaginado sozinho.
Otimizando o onboarding e lidando com a bajulação da IA
Outra área crítica onde a visão do fundador costuma ser turva é o processo de “onboarding” (a introdução do usuário ao sistema). Quem constrói o produto conhece cada detalhe, o que faz com que etapas confusas pareçam óbvias. O cérebro preenche as lacunas automaticamente. Para combater isso, pode-se alimentar o ChatGPT com capturas de tela do fluxo de entrada e pedir que a IA percorra o processo como se fosse um usuário frio, de primeira viagem. O objetivo é que ela aponte onde o processo se torna convulso ou onde há bloqueios.
Contudo, há um alerta importante ao usar essa estratégia: os LLMs tendem a ser “bajuladores”, oferecendo elogios excessivos que podem beirar a ilusão. A OpenAI já declarou estar trabalhando para mitigar esse comportamento, mas é prudente construir defesas nos prompts. Para obter feedback honesto, alguns usuários preferem remover o enquadramento pessoal — pedindo para “avaliar este produto” em vez de “avaliar o meu produto” — ou instruir explicitamente a IA a assumir o papel de um crítico hipersensível ou de um supervisor exigente, garantindo assim uma análise mais crua e realista.