parlare con un modello addestrato sui propri pensieri (diciamo, per il giudizio sugli investimenti) è un segno di follia? dato che questo tipo di iterazione può aiutare i modelli, forse aiuta anche gli esseri umani "silicon ducking" invece di rubber ducking