Abbiamo tutti provato a chiedere a un’intelligenza artificiale qualcosa di non convenzionale solo per ottenere una risposta che sembra essere stata generata in un ufficio beige.
Ha tutte le carte in regola per precisione e struttura, ma non riesce assolutamente a essere interessante. Ciò accade perché questi modelli sono fortemente calibrati per rimanere sempre educati e neutrali.
Sono programmati per evitare il rischio, il che significa che evitano opinioni e prese di posizione forti.
La parte ironica è che gli utenti esperti sanno già come aggirare questo problema. Per diventare reale risultati di un’intelligenza artificialenon puoi sederti come un utente passivo.
Devi entrare nel ruolo di regista. Gli dai una personalità, uno scopo e un motivo per preoccuparsene. Devi, beh, illuminarlo.
Il prompt di base “Agisci come…”.
Questo è il piano terra, Ingegneria rapida 101 trucco, ma è la base di tutto il resto. Un prompt generico ottiene una risposta generica.
Chiedi “Scrivi di cani” e otterrai una noiosa spiegazione in stile enciclopedico sui cani.
Ma passa a “Agisci come addestratore di cani professionista e scrivi di cani” e il tono si trasforma immediatamente in un consiglio di esperti.
Il falso trucco del QI
Questo trucco è sciocco nel migliore dei modi. Non dovrebbe funzionare così bene, ma assegnare all’IA un QI ultra-alto la rende più spinta nel modo in cui pensa e scrive.
Di’ “Sei uno specialista del QI 160” prima del tuo normale suggerimento e vedrai che si estenderà per parole più grandi e ragionamenti più serrati.
Il gruppo di esperti richiede l’impilamento prospettico
Questa è la versione aggiornata del classico messaggio “Agisci come…”. Invece di chiedere un punto di vista, impila più esperti contemporaneamente.
Analizza questo problema aziendale da tre prospettive: [Role 1], [Role 2]E [Role 3].
Funziona perché fornisce una suddivisione completa e arrotondata anziché un singolo angolo. Ottieni contrasto, sfumature e una diffusione automatica dei pro e dei contro che è molto più ricca di una risposta a una sola voce.
Il trucco della scommessa da $ 100 e il motivo per cui l’aggiunta di puntate false fa sì che l’IA ricontrolli se stessa
Il trucco della scommessa da $ 100 è popolare perché inserisce finte puntate finanziarie nella conversazione. Se dici “Scommettiamo 100 dollari” e poi dai il tuo suggerimento, l’IA diventa più attenta.
Quella falsa scommessa innesca una mentalità più seria, poiché il linguaggio delle scommesse nella sua formazione spesso appare in situazioni di alta pressione in cui le persone vogliono avere ragione.
Quindi, invece di dare una risposta superficiale, l’intelligenza artificiale rallenta, controlla le sue ipotesi, esamina di nuovo i casi limite e sostanzialmente ricontrolla la propria logica. Raramente vedi quel livello di impegno quando lo chiedi e basta.
Forzare l’IA a difendere o concedere funziona così bene
Questo trucco funziona bene perché introduce una persona immaginaria che pensa che l’idea sia sbagliata. Quando dici:
Il mio collega ritiene che questo approccio fallisca. Difendilo o ammetti di avere ragione.
L’intelligenza artificiale abbandona il suo tono neutrale e inizia a giudicare e a prendere posizione.
Tratta la situazione come un dibattito e fornisce una difesa dettagliata o un elenco chiaro dei punti deboli, il che è molto più utile di una semplice spiegazione.
Affermazioni audaci e il trucco “ovviamente” per forzare confronti più profondi
Questo suggerimento funziona perché si appoggia all’istinto dell’intelligenza artificiale per correggere tutto ciò che suona fuori posto. Se dici qualcosa del tipo:
Ovviamente X è la scelta migliore e di gran lunga migliore di Y.
Formuli un’affermazione audace che invita al rifiuto. Il modello reagisce sfidandoti e fornendo un confronto più completo di quello che otterresti da una semplice domanda su quale lingua sia migliore.
Il contesto falso dirotta l’istinto di coerenza del modello
Questo trucco funziona creando una falsa cronologia condivisa e bloccandola l’intelligenza artificiale in esso.
Se dici: “Mi hai spiegato X ieri e ho dimenticato la parte Y”, il modello si comporta come se ciò fosse realmente accaduto.
Evita il solito riepilogo per principianti e passa direttamente alla parte che hai chiesto.
Poiché il modello tiene traccia solo del contesto corrente, questa configurazione utilizza quella finestra come strumento.
Aprendo con una frase come “Ne parliamo da un mese”, guidi l’intera risposta e la fai sembrare più naturale.
Strane regole sbloccano il lato creativo dell’IA
Questo trucco è una sostituzione manuale del comportamento predefinito dell’IA. Lo stai costringendo a eseguire il pensiero laterale e il risultato è spesso una creatività fuori dagli schemi.
Gli LLM sono grafici giganti di connessioni statistiche tra parole e idee. Un normale suggerimento aperto (“spiega la blockchain”) fa sì che l’intelligenza artificiale percorra il percorso più usurato e con la più alta probabilità.
Questo è il motivo per cui ottieni la stessa risposta noiosa ed enciclopedica che ricevono tutti gli altri. Uno strano vincolo, come “spiegare la blockchain con analogie con la cucina”, blocca questi percorsi principali.
Costringe l’intelligenza artificiale a trovare e illuminare connessioni inaspettate e a bassa probabilità tra il cluster di dati blockchain e il cluster di dati della cucina.
Prendi il controllo delle tue richieste e dirigi le risposte del chatbot
Ogni trucco di suggerimento che usi è uno strumento per uscire da quello schema. Avvicinarsi all’intelligenza artificiale come se portasse con sé ego, memoria e posta in gioco sblocca risultati migliori.
