Teresa Potenza
👤 SpeakerAppearances Over Time
Podcast Appearances
E poi c'è l'abitudine a lavorare con questi strumenti in modo consapevole e responsabile che tra l'altro qua sta anche la risposta a una delle domande che mi sento fare più spesso in assoluto, cioè come riconosco se un pezzo è stato scritto da chat GPT o se un compito in classe è stato scritto da chat GPT o una newsletter e così via.
ecco come si dice quando vuoi per esempio diventare una scrittrice devi leggere tu poi sei anche scrittrice quindi lo sai meglio di me se vuoi diventare podcaster ascolta podcast anche questo lo sappiamo e allora ecco anche in questo caso se vuoi capire se sei davanti a un contenuto generato da un'intelligenza artificiale devi usare l'intelligenza artificiale
Il libro nasce da un'urgenza di Alberto e mia, noi siamo molto allineati e facciamo anche corsi insieme, workshop, webinar e questa urgenza che avevamo era quella di fornire
anche attraverso un libro degli strumenti di pensiero non tanto di performance e allora con Alberto volevamo dire una cosa molto semplice ma secondo noi fondamentale non è l'intelligenza artificiale a fare la differenza a renderti più competitiva più competitivo ma il modo in cui la integri nel tuo lavoro
E anche se vogliamo nella tua propria identità professionale e umana, ecco perché parliamo di mindset, perché pensiamo che tutto dipenda da questo, tutto parta da lì, dal modo in cui in questo caso osservi la tecnologia, la interpreti e la usi.
Anche nelle formazioni per esempio che tengo con giornalisti, con aziende, con chi fa comunicazione.
Vedo, sento che la chiave non è insegnare a utilizzare gli strumenti di intelligenza artificiale, ma insegnare a capire che cosa abbiamo davanti e a come approcciare quello che abbiamo davanti, quindi come veramente possa esserci utile.
È questo che penso ci permetta di restare al timone, protagonisti se vogliamo, quindi non spettatori.
Parto subito dalle regole etiche per poi arrivare alle strategie e soprattutto a un metodo.
La premessa è come dicevamo che anche le sfide sono tante così come le opportunità nel lavoro giornalistico e in qualsiasi altro settore.
Innanzitutto non possiamo prescindere dalla formazione.
ci credo tantissimo io penso che dobbiamo formarci come giornaliste come giornalisti ma non soltanto noi vale per tutte le persone che ci stanno ascoltando e al di là del settore in cui lavoriamo perché questo formarci ci dà l'opportunità di capire di che cosa stiamo parlando che cosa stiamo usando e perché lo stiamo usando e quindi se ci è davvero utile perché poi non c'è scritto da nessuna parte che dobbiamo usare tutti questi tool
anche uno solo potremmo usarlo o non usarlo, devono avere senso per noi, per il nostro lavoro, quindi se possono migliorare quello che facciamo, quindi prima regola fondamentale è che l'obiettivo deve essere quello di migliorare e poi c'è la trasparenza, sia che lavoriamo in una piccola redazione, in una grande o che siamo freelance, indipendenti,
Ecco essere trasparenti è un atto di responsabilità prima di tutto con noi stesse con noi stesse e poi con chi ci legge ci ascolta ci guarda quindi anche trasparenza nell'uso che facciamo di questi strumenti di intelligenza artificiale.
Un caso molto pratico è dotarsi di policy interne, è quello che facciamo per esempio in News 48, il magazine di giornalismo costruttivo con cui collaboro e sono anche responsabile dell'osservatorio AI per il gruppo che si chiama Constructive Network e crediamo fermamente nella trasparenza e nell'uso etico degli strumenti di intelligenza artificiale anche nel lavoro di chi fa informazione.
Per garantire quindi, vengo anche appunto alle strategie, dei metodi che ci permettano di non amplificare disinformazione, manipolazioni, quindi fake news, stereotipi, pregiudizi, ecco non è tanto una questione di tecnica secondo me ma è tutto un ecosistema di scelte, scelte che non devono toccare solo appunto gli strumenti, la tecnologia ma…
fanno parte proprio della nostra cultura perché l'intelligenza artificiale appunto si nutre di dati e questi dati non sono solo informazioni come Napoleone nato nel 1900 quindi questo è un errore che può entrare negli strumenti di intelligenza artificiale ma anche questi errori possono essere a un livello diverso per esempio di stereotipi e pregiudizi
Ecco allora che riconoscere che l'intelligenza artificiale è il nostro specchio è fondamentale, quindi imparare a riconoscere allucinazioni, cioè errori, ma anche pregiudizi e stereotipi che sono insiti nei dataset, nei dati di cui si nutre.
Allenare il nostro pensiero critico è quindi la base di tutto, anche quando usiamo l'intelligenza artificiale.
E poi un consiglio, diversifichiamo, quindi non fidiamoci di un solo strumento, se si utilizzano, se effettivamente sono utili al nostro lavoro, usiamo più di uno strumento in modo anche da fare dei confronti,