Published on

Semantic AI - Clarity between better results using Intent versus Deduction frameworks

Vamos falar de futuro da engenharia de contexto, usando pragmatismo lúdico e ideação pura.

Subtítulo: Por que o próximo salto de produtividade não virá de IAs mais inteligentes, e sim de profundidade humana para guiar o raciocínio delas?

#movetoEnrich #GenAI #ContextEngine

Pela primeira vez na história, nos encontramos em uma posição inusitada: estamos fornecendo mais informação do que a recebendo.

Durante a última década, o desafio era “acesso ao conhecimento”.

Hoje, interagimos com uma Inteligência Artificial treinada com “todo conteúdo” disponível na internet “de conhecimento” humano.

O gargalo mudou de lugar. Agora, o sucesso de qualquer tarefa não depende do que a IA sabe, mas da nossa habilidade de transmitir a ela o que nós sabemos:

“O contexto, a intenção e a dor real que buscamos resolver. E é desta nova responsabilidade que frequentemente falhamos.

Trate o Interesse como -> Objetivo para = Obter a Clareza Necessária.

Quando tratamos essa ferramenta (O modelo LLM de Inteligência) como um simples assistente de busca glorificado, nos frustramos com resultados que classificamos como "tempo perdido", enquanto o erro de diagnóstico torna seu investimento de tempo fundamental para obter o retorno sobre o seu investimento.

O que temos à disposição não é um oráculo. “dedução semântica” é o nome dado para o motor/executor de busca/tarefa que vem de fabrica hoje, e o que este motor tem de "errado"?

Ele não foi projetado para adivinhar, mas para "raciocinar" a partir das premissas que fornecemos, isso não quer dizer que ela "entenda" a intenção por trás do pedido caso não esteja explicitamente claro, o que deve, ou não ser feito.

A chave não é "- O que a IA pode fazer por mim?", mas: "- Como podemos estruturar nosso conhecimento para que ela estruture Soluções ao invés de NOS criar 'mais' dúvidas ou + perguntas que até então você veio exatamente em busca.".

Objetivo

Este modelo que colocamos em prática como solução, consiste estabelecer um framework que basicamente faça com que a própria IA Ensine” a “Ensinar”.

O resultado desta prática busca de forma clara diferenciar como obter resultados melhores ao: “Delegar” ao invés de “Repassar” as atividades aos modelos de LLM mais utilizados como: Gemini, GPT, Perplexity e etc...

O Problema Real: A Pergunta que Não Foi Feita.

Quando um resultado é ambíguo, o publico se frustra. Mas a oportunidade de ouro não está perdida: perguntar à própria IA por que a busca foi ineficaz. Estamos dispensando o diagnóstico de quem mais entende do processo. Para quebrar esse ciclo, precisamos de um framework que nos force a aprofundar, a aplicar o primeiro e mais básico método de qualidade:

– o porquê.

Como a IA deve Deduzir o que EU preciso? Um exemplo prático entre Deduzir e Inferir (qual a Intenção):

Expectativa: Obter Clareza sobre os termos: Intenção versus Dedução que é adotado pelos modelos LLM ao assumir que entendeu sua pergunta, mesmo que não tenha certeza da Intenção. Por isso, definimos Objetivo como importante para apoia-la durante esta analise desde o principio.


COMO A IA DEVE e PODE INTERPRETAR UMA NOVA SOLICITAÇÃO PARTIR DESTE PRINCIPIO:


A Solução: Um Agente com um Loop Duplo de Analise, onde:

1º Objetivo refinar a própria pergunta que recebeu para refinar sua Intenção + Contexto em que foi envolvida, ANTES, de:

2º Iniciar sua analise incluindo 5 pontos de vista diferente em busca do mesmo objetivo, ou seja, a intenção é a mesma, o que mudará é a abordagem apenas.

Exemplo:
- Em uma mesma empresa contendo Áreas de Venda, Marketing, RH, Financeiro, TI....
- É comum ouvir afirmações de que uma determinada área não depende da outra para desempenhar o seu papel, porém, todas compartilham do mesmo objetivo comum (a meta), sem ela, nada se sustenta por muito tempo.

Este framework força um redesenho da nossa interação. Ele transfere a responsabilidade da clareza para um processo estruturado, onde o agente (MODELO DE INTELIGENCIA). Antes de agir, se torna nosso parceiro na formulação do problema (Torna o Desafio Enviado pelo usuário “Intencional” para mitigar o risco “Dedução Incorreta = Perda de Tempo.“).

Conteúdo do artigo

Ilustração do fluxo de trabalho percorrido pelo agente 'durante esta atividade'

Loop 1: O Diálogo Interno (Metacognição)

Antes de fazer, o agente primeiro pensa sobre como fazer. Ele analisa o pedido através de três lentes primárias:

  1. Fonte (Source): De onde vem este pedido? Quem é o público?

  2. Dor (Pain): Qual problema real estamos tentando resolver? Qual é a ineficiência?

  3. Desejo (Want): Qual é o estado futuro ideal? O que define o sucesso?

Inspirado na técnica dos "5 Porquês", o agente se aprofunda nessas questões para "compor a si mesmo como requisitos" (compose AS Requirements). Ele transforma um pedido vago em um plano de ação estruturado e cheio de propósito (Intencionalmente).

Loop 2: A Ação Guiada (Execução)

Apenas após concluir seu diálogo interno, o agente executa a tarefa. A diferença crucial ao segmentar este “contexto“ é que ele NÃO está mais respondendo ao prompt original (caso identifique ambiguidade), agora segue como conjunto de requisitos claros e contextualizados que ele mesmo ENTENDE e assume que deve ajudar a construir de forma CLARA.

Conteúdo do artigo

Parte 1 do Framework desenvolvido para Este Agente que estamos tratando de forma mais didadica.

Um Exemplo Prático: "De escrever: Faça" para "IA Responde: Entendi, o Plano e a Intenção para:"

Cenário Padrão:

Conteúdo do artigo

Parte 2 do Framework desenvolvido para Este Agente tecnicamente

Cenário com Agente Metacognitivo:

Agente (Loop 2 - Execução):

Conteúdo do artigo

Etapa 3 - Final da Fase de Ideação na Construção dos Parâmetros e Variáveis que acompanharão esta estratégia apresentada durante o desenvolvimento deste Agente de Colaboração Genuína.

O Fim do Tempo Perdido é o Começo do Co Raciocínio

Este framework não é sobre construir O MELHOR PROMPT, A RECEITA correta para IAs, mas sobre nos tornarmos melhores em colaborar com elas. Aplicamos neste texto conceitos valiosos baseado em “Design Thinking” Para ilustrar através do próprio texto, Qual pode ser um de seus modelos para usar com IA quando lembrar sobre: "tempo perdido" deixa de ser uma falha e se torna um dado, um diagnóstico da nossa própria falta de clareza. Ao ensinar o agente a perguntar "por quê?", estamos, na verdade, nos forçando a entender a resposta.

O QUE ESPERAMOS (“QUE ELE ENTENDA”)

E O QUE NÃO QUEREMOS (“AO INVÉS DE DEDUZIR, QUESTIONE-SE, BUSQUE OS PORQUÊS EM CASO DE DUVIDA, faça isso, POR NÓS DOIS!”)

O próximo nível da IA não substituirá posições de trabalho; ele exigirá uma profundidade de raciocínio. A diferença entre um resultado contundente e um resultado ambíguo não estará na capacidade da IA, mas em nossa própria capacidade de guiar a estratégia de raciocínio dela. O futuro da colaboração não é sobre dar comandos, é sobre construir entendimento


Abraços!

#VCIA  #movetoEnrich #contextEngineering #DASCAScientist #man-in-the-loop #INTENT #CoT #InfinitivePurposes #IdealsAIdeasDrive