Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Descanse em paz, cadeia de pensamento.
Acabei de testar o Skeleton of Thought prompting e ele está reduzindo pela metade a latência de resposta em tarefas estruturadas enquanto melhora a qualidade da saída.
Um artigo mudou a forma como penso sobre geração de texto por IA.
O CoT força o modelo a pensar e escrever simultaneamente. O Ponto 1 deve terminar antes do início do Ponto 2. Ponto 2 antes do Ponto 3. Cada token bloqueado pelo token anterior a ele.
Especialistas não funcionam assim.
Um consultor da McKinsey delineia cada seção primeiro e depois desenvolve cada uma de forma independente. Um professor analisa os tópicos e depois os preenche.
SoT corresponde a isso.
Fase 1 - Esqueleto:
O modelo escreve um esboço simples de cada ponto. Sem explicações. Só estrutura.
Fase 2 - Preenchimento Paralelo:
Cada ponto do esqueleto se expande independentemente. O Ponto 3 não espera pelo Ponto 2. Um ramo errado não desacelera todos os ramos depois dele.
O exato prompt:
"Primeiro, escreva um esqueleto conciso da sua resposta como uma lista de pontos-chave. Depois, expanda cada ponto de forma independente e completa. Formato: [Esqueleto] seguido por [Ponto 1], [Ponto 2], etc."
Onde SoT predomina:
→ Guias e tutoriais práticos
→ Listas e divisões ranqueadas...

Melhores
Classificação
Favoritos
