Descanse em paz, cadeia de pensamento. Acabei de testar o Skeleton of Thought prompting e ele está reduzindo pela metade a latência de resposta em tarefas estruturadas enquanto melhora a qualidade da saída. Um artigo mudou a forma como penso sobre geração de texto por IA. O CoT força o modelo a pensar e escrever simultaneamente. O Ponto 1 deve terminar antes do início do Ponto 2. Ponto 2 antes do Ponto 3. Cada token bloqueado pelo token anterior a ele. Especialistas não funcionam assim. Um consultor da McKinsey delineia cada seção primeiro e depois desenvolve cada uma de forma independente. Um professor analisa os tópicos e depois os preenche. SoT corresponde a isso. Fase 1 - Esqueleto: O modelo escreve um esboço simples de cada ponto. Sem explicações. Só estrutura. Fase 2 - Preenchimento Paralelo: Cada ponto do esqueleto se expande independentemente. O Ponto 3 não espera pelo Ponto 2. Um ramo errado não desacelera todos os ramos depois dele. O exato prompt: "Primeiro, escreva um esqueleto conciso da sua resposta como uma lista de pontos-chave. Depois, expanda cada ponto de forma independente e completa. Formato: [Esqueleto] seguido por [Ponto 1], [Ponto 2], etc." Onde SoT predomina: → Guias e tutoriais práticos → Listas e divisões ranqueadas...