Prompt Engineering – usare al meglio l’intelligenza artificiale generativa

Status Attuale
Not Enrolled
Prezzo
-

Durata: 2 giorni

Descrizione:

L’intelligenza artificiale (IA) generativa può essere utilissima – può svolgere diverse attività in modo efficace ed efficiente, assistendoci nel lavoro e in altri ambiti – ma bisogna saperla usare bene. Formulare le richieste in modo improprio porta a risposte poco utili.

Il Prompt Engineering (progettazione dei comandi) è la tecnica per dialogare con i chatbot di intelligenza artificiale generativa (come ChatGPT e strumenti analoghi) per ottenere i risultati che ci interessano.

Il corso offre una panoramica sulle potenzialità offerte dagli strumenti di intelligenza artificiale generativa, e presenta i Pattern utili per formulare le richieste in modo da ottenere risposte adeguate.

Per ogni Pattern illustrato vengono svolte esercitazioni basate su casi concreti, permettendo ai partecipanti di ottenere feedback ai propri prompt e di imparare con esperienze reali.


Destinatari:

Tutti.


Prerequisiti:

Il corso è rivolto a tutti e non ha prerequisiti, tranne la disponibilità di un browser connesso in rete. In particolare, non sono richieste competenze tecniche relative allo sviluppo software.


Contenuti:

Concetti base

I Large Language Model (LLM) – modelli linguistici ampi – e i chatbot che servono per dialogare con i LLM

Tipi di attività per cui usare i chatbot basati su LLM

  • Elaborazione di progetti
  • Creazione di opere di vario tipo
  • Valutazione della qualità di prodotti
  • Operazioni su testi e immagini

I pattern – tecniche consolidate per affrontare problemi ottenendo risultati efficaci

Pattern di base

  • Persona – chiedere di assumere un ruolo
  • Audience Persona – chiedere di rispondere rivolgendosi a interlocutori di un certo tipo
  • Question Refinement – chiedere di aiutare a formulare meglio le domande
  • Cognitive Verifier – chiedere di trovare domande correlate
  • Alternative Approaches – chiedere di suggerire approcci alternativi
  • Flipped Interaction – chiedere al LLM di invertire i ruoli formulando le domande all’utente
  • Few Shot Example – chiedere di fornire risposte basandosi su esempi forniti dall’utente
  • Reflection – chiedere di fornire il ragionamento su cui il LLM basa le risposte
  • Game Play – chiedere al LLM di creare un gioco per ottenere un obiettivo
  • Template –  chiedere di formattare l’output in un modo specifico
  • Context Manager – chiedere di considerare o non considerare aspetti specifici di contesto
  • Recipe – chiedere di definire step intermedi per ottenere un risultato

Pattern ulteriori per usi specifici

  • Meta Language Creation – fornire al LLM il significato di espressioni che useremo nel dialogo
  • ReAct – indurre il LLM a usare altri strumenti per ottenere un risultato
  • Fact Check List – chiedere di specificare un elenco dei “fatti” su cui il LLM basa le sue risposte
  • Output Automater – chiedere di generare uno script automatizzato
  • Visualization Generator – chiedere di generare immagini
  • Requirements Simulator – chiedere di valutare la completezza di un insieme di requisiti
  • Specification Disambiguation – chiedere di evidenziare ambiguità nelle specifiche di requisiti
  • Change Request Simulation – chiedere di valutare l’impatto di una richiesta di cambiamento

Accesso ad altri strumenti a partire dal LLM