Bello "scoprirvi" qui su Substack, ottimo modo per ovviare ai limiti dell'algoritmo di Facebook che a un certo punto decide di smettere di mostrare i contenuti del gruppo.
Il pezzo mi è piaciuto moltissimo, e sono d'accordo: chi ha paura (legittima) dell'IA forse non ha una consapevolezza reale del proprio valore autoriale (o forse non fa un lavoro di valore e basta). Mi sono sempre chiesto se il mio non esserne spaventato fosse sintomo di ingenuità, fosse auto-consapevolezza oppure sicumera: d'altronde quante volte nella storia è successo che le persone che hanno pensato che una tecnologia non avrebbe mai attecchito si sono poi trovate disoccupate?
E in effetti il mio errore forse è quello: non il non averne paura, ma rifuggire comunque l'IA come tecnologia non pericolosa o sostitutiva. Per mesi non ho fatto nessun tipo di esperimento che non fossero quelli fatti da tutti per divertirsi. Ma adesso sto cominciando a ragionare invece su come possa farne un alleato prezioso per il mio lavoro, senza scendere a compromessi di etica e autorialità.
Lo ammetto, sono un po' retrogrado su queste cose, ma meglio tardi che mai: d'altronde solo chi si adatta non rischia l'estinzione.
Sull'AI abbiamo avuto dall'inizio una posizione ambivalente. Nel 2020 per una start-up di AI avevamo lavorato ai testi di un chatbot, dalle ontologie alle entity. Fino a lì tutto bene: è una macchina, io la addestro come essere umano.
Poi le cose sono cambiate, e anche l'arrivo di tecnologie a basso costo ci ha costretto a rivedere la nostra posizione. Temiamo per il nostro lavoro? No, ma sappiamo che cambierà, e che probabilmente nessuno ci pagherà per fare delle cose ma per farne altre che non immaginavamo.
È una questione di mentalità: in markettese si dice "di mindset". Però vederla come un frullatore aiuta, anche a decidere chi comanda qui.
PS: L'algoritmo di Facebook sta uccidendo la community
Finalmente siete tornati! Tanto “food for thought”. Grazie!
Bello "scoprirvi" qui su Substack, ottimo modo per ovviare ai limiti dell'algoritmo di Facebook che a un certo punto decide di smettere di mostrare i contenuti del gruppo.
Il pezzo mi è piaciuto moltissimo, e sono d'accordo: chi ha paura (legittima) dell'IA forse non ha una consapevolezza reale del proprio valore autoriale (o forse non fa un lavoro di valore e basta). Mi sono sempre chiesto se il mio non esserne spaventato fosse sintomo di ingenuità, fosse auto-consapevolezza oppure sicumera: d'altronde quante volte nella storia è successo che le persone che hanno pensato che una tecnologia non avrebbe mai attecchito si sono poi trovate disoccupate?
E in effetti il mio errore forse è quello: non il non averne paura, ma rifuggire comunque l'IA come tecnologia non pericolosa o sostitutiva. Per mesi non ho fatto nessun tipo di esperimento che non fossero quelli fatti da tutti per divertirsi. Ma adesso sto cominciando a ragionare invece su come possa farne un alleato prezioso per il mio lavoro, senza scendere a compromessi di etica e autorialità.
Lo ammetto, sono un po' retrogrado su queste cose, ma meglio tardi che mai: d'altronde solo chi si adatta non rischia l'estinzione.
Sull'AI abbiamo avuto dall'inizio una posizione ambivalente. Nel 2020 per una start-up di AI avevamo lavorato ai testi di un chatbot, dalle ontologie alle entity. Fino a lì tutto bene: è una macchina, io la addestro come essere umano.
Poi le cose sono cambiate, e anche l'arrivo di tecnologie a basso costo ci ha costretto a rivedere la nostra posizione. Temiamo per il nostro lavoro? No, ma sappiamo che cambierà, e che probabilmente nessuno ci pagherà per fare delle cose ma per farne altre che non immaginavamo.
È una questione di mentalità: in markettese si dice "di mindset". Però vederla come un frullatore aiuta, anche a decidere chi comanda qui.
PS: L'algoritmo di Facebook sta uccidendo la community