l'AI (anche) in cucina

Discussioni generali riguardanti il mondo della cucina. Richieste, consigli, etica, mangiare sano, vini e bevande, etc.

Moderatore: stefiza

l'AI (anche) in cucina

Messaggioda DanyDuck » 13/03/2026, 20:20



ClaudiaK ha scritto:Dany, io mi rendo conto che tu stai ragionando da brava persona e a fin di bene, però...se alzi lo sguardo al di sopra del singolo episodio che magari ti può aver turbato...ricordiamoci sempre che tutte le censure e tutti i "roghi di libri" sono opera di DESPOTI che non accettano alcuna visione diversa dalla loro e che necessitano di imporre la loro!

Non occorre ripescare le purtroppo tante occasioni in cui questo si è verificato nella Storia, nè occorre scomodare concetti diversi da quello della malvagità, di cui stiamo parlando.
Basti pensare che per te, per me, per tanti di noi è malvagio l'integralista islamico radicalizzato che sacrifica la propria vita pur di compiere "stragi di infedeli", ma... per lui è malvagio il cristiano!

Non è "censurando" che si risolve la malvagità umana, che è comunque inscritta nel DNA umano, e che infatti è sempre esistita.

Anzi: leggevo proprio qualche giorno fa che il PERICOLO di una informazione web pilotata e censoria è fortemente avvertito e si parla proprio di "roghi digitali" , giacchè tra algoritimi e indicizzazioni digitali si può "bruciare" la diffusione di qualunque informazione scomoda a un regime ...e senza produrre nessun "fumo" (come già sappiano avvenire nei regimi dittatoriali).
E (per fortuna) esistono anche risorse web che si sono date proprio la mission di archiviare TUTTE le pubblicazioni possibili e renderle disponibili...alla faccia di tutte le censure!

Tu hai spiegato benissimo, nelle pagine precedenti, le ragioni del tuo "dente avvelenato" verso l'AI.
Ma - permettimi - non mi sembra abbia gran senso attribuire all'AI una qualche "funzione moralizzatrice" che non compete ad essa e che anzi c'è da sperare non abbia mai, e , al contempo, bypassare la miliardata di utilità (senza virgolette) che dà all'umanità, già solo nel rendere estemporanee ricerche che potrebbero richiedere mesi, in settori in cui anche i minuti possono fare LA differenza (tutte le scienze, e la medicina in primis).


Tutto chiaro, ma quello che intendevo io non era una censura dittatoriale come erano i libri bruciati, ma delle informazioni saggiamente filtrate in modo da non accendere ulteriori micce in menti che già sono piuttosto instabili, poi mi rendo conto che sarebbe molto complesso da realizzare ed anche opinabile sul livello di filtro applicato.
  • 0

Avatar utente
DanyDuck
Amico level twelve
 
Stato:
Messaggi: 596
Iscritto il: 23/09/2019, 19:52
Località: Alessandria
Genere: Maschile

l'AI (anche) in cucina

Messaggioda DanyDuck » 13/03/2026, 20:36



Navigator63 ha scritto:
DanyDuck ha scritto:Infatti avevo scritto "utile" virgolettato proprio perchè è un ulteriore vantaggio per chi cerca nozioni che alimentino il proprio desiderio malvagio, in pratica è come avere a disposizione un bibliotecario digitale che direttamente sul tuo telefono o pc

Vero, ma questo è un problema insito in tutti gli strumenti "neutri": l'uso dipende dall'utilizzatore. Però non è un problema dello strumento in sé.

Pensa ad un coltello o cacciavite: strumenti indispensabili, ma che possono essere usati anche per uccidere.
E allora che facciamo, per evitarlo li eliminiamo, poi cuciniamo senza coltelli e ripariamo senza cacciaviti...? :rolleyes:

Anche in una biblioteca fisica, ci puoi trovare testi usabili per fare cose pericolose (p.es. libri di chimica con cui preparare esplosivi). Ma, di nuovo, non ha senso limitare tutto perché potrebbe essere usato per fare il male.
Questa tendenza all'estremo porta a posizioni assurde, come quella dell'islamico radicale per cui l'unico libro ammissibile è il Corano: "Se un libro contiene le stesse cose è inutile, se contiene altro è sbagliato". :wow:
O come quei tradizionalisti cristiani che negli USA arrivano a proibire dei libri che sono veri classici. :facepalm:

rimane comunque il fatto che chi ha programmato l'AI non si è fatto scrupolo di filtrare queste cose

Non viene fatto a priori per una serie di motivi che non sto qui ad approfondire, ma che trovo sensati.

E cmq ricorda: voler controllare troppo per evitare danni, finisce col creare più danni di quelli che si vogliono evitare. :dunno:
(censure ed autoritarismi nascono anche da quell'intento, e cmq falliscono)

E' interessante quello che scrivi, però mi suona quasi po' fantascientifico

Eh, per molti versi lo è. Pensa che io mi occupo di informatica da oltre 40 anni... e cmq a malapena comprendo queste nuove tecnologie.
Quantomeno, sarebbe saggio dire "Prima di sparare giudizi magari mi informo meglio" :)

un computer che esegue un software eseguirà sempre degli ordini di chi lo ha programmato

Come ho già detto, questo è vero nella programmazione tradizionale, ma non per gli AI / LLM. Il vecchio paradigma qui non si applica.

quindi se questo software è addirittura in grado di sfuggire al controllo di chi lo ha creato, allora vuol dire che volutamente è stato fatto in questo modo

No, è intrinseco nella sua natura. Non è voluto, è una specie di "effetto collaterale".

E' un po' come dire che tu controlli la tua auto, ma non sempre e cmq: a volte perdi il controllo (pioggia, neve, ghiaccio, sabbia, olio, vento, guasti...) e l'auto può sfuggire al controllo e fare danni.
Ma non è perché è stata progettata apposta per far danni: è perché 1-2 tonnellate di massa che si muovono veloci, legate ad un suolo variabile solo da dei pezzi di gomma... per loro stessa natura, per leggi fisiche, hanno quel potenziale. :dunno:


I paragoni che hai fatto sono chiari, ma a mio avviso un po' fuori luogo, è vero che degli utensili come un cacciavite o un coltello possono essere usati anche per uccidere, però qui parliamo di un software, giustificare i suoi possibili effetti dannosi così lo trovo piuttosto semplicistico, come già scritto in precedenza un livello di filtro si potrebbe probabilmente applicare anche se capisco che è molto complicato, poi la storia a volte ci insegna a non perseverare nell'errore (anche se spesso perseveriamo alla grande!), ad esempio dopo il disastro nucleare di Cernobyl le centrali successive sono state costruite con sistemi di sicurezza tali che non si potesse più verificare un evento del genere.
  • 0

Avatar utente
DanyDuck
Amico level twelve
 
Stato:
Messaggi: 596
Iscritto il: 23/09/2019, 19:52
Località: Alessandria
Genere: Maschile

l'AI (anche) in cucina

Messaggioda Navigator63 » 14/03/2026, 4:47



DanyDuck ha scritto:qui parliamo di un software, giustificare i suoi possibili effetti dannosi così lo trovo piuttosto semplicistico

Ovviamente sto semplificando, con tutti i limiti che comporta. :dunno:
Però non sto giustificando, infatti appoggio una certa regolamentazione delle AI.
Quello che non appoggio è una mentalità "paranoide" che vede le AI in modo catastrofista e tende a "castrarle" per paure eccessive, e spesso immaginarie.

come già scritto in precedenza un livello di filtro si potrebbe probabilmente applicare anche se capisco che è molto complicato

Esatto.
Finora non ho affrontato questo aspetto, ma è davvero gigantesco. Considera la massa di dati pressoché infinita presente in Internet: si calcola che alla fine del 2025 conterrà circa 180 zettabytes (uno zettabyte equivale a un triliardo di gigabytes). La mente umana non può nemmeno comprendere cifre simili.
Ora, se una ditta volesse operare una selezione su quei dati:
- Quante migliaia o milioni di operatori dovrebbe usare? Per quanti anni o decenni?
- E quali criteri di scelta userebbero? Decisi da chi? (il vecchio "Chi controllerà i controllori"?). Ovviamente ognuno applicherebbe criteri diversi.
- E visto che la massa di dati è in continuo aumento e rinnovamento, questa selezione durerebbe in eterno...

Vedi da te che è improponibile, ed anche fonte di infinite polemiche (i "sinistroidi" vorrebbero certi criteri ed i "destroidi" altri, non se ne uscirebbe più :facepalm: )
La via più percorribile, che AFAIK è quella usata, è di acquisire TUTTI i dati e poi applicare filtri e regole a posteriori. Che però non saranno mai infallibili.

ad esempio dopo il disastro nucleare di Cernobyl le centrali successive sono state costruite con sistemi di sicurezza tali che non si potesse più verificare un evento del genere.

Esatto.
E' una evoluzione progressiva e iterativa (si sbaglia, si impara, si migliora, si sbaglia di nuovo e si corregge, ecc.). Il progresso funziona così, non è mai perfetto ma è perfettibile.

Con questo esempio, la scelta senza senso sarebbe stata "Non costruiamo MAI centrali nucleari perché potrebbero essere pericolose" (cosa che molti hanno invocato). Ma allora saremmo ancora all'età della pietra. :rolleyes:
  • 0

Il mio Blog "Psicofelicità": https://psicofelicita.blogspot.com/

Winners find a way, losers find an excuse.
Avatar utente
Navigator63
Amico Top Level
 
Stato:
Messaggi: 1696
Iscritto il: 21/07/2014, 1:29
Località: Torino
Citazione: Non possiamo scegliere cosa ci accade, ma possiamo sempre scegliere come reagire a ciò che ci accade.
Genere: Maschile

l'AI (anche) in cucina

Messaggioda DanyDuck » 14/03/2026, 18:58



Navigator63 ha scritto:
DanyDuck ha scritto:qui parliamo di un software, giustificare i suoi possibili effetti dannosi così lo trovo piuttosto semplicistico

Ovviamente sto semplificando, con tutti i limiti che comporta. :dunno:
Però non sto giustificando, infatti appoggio una certa regolamentazione delle AI.
Quello che non appoggio è una mentalità "paranoide" che vede le AI in modo catastrofista e tende a "castrarle" per paure eccessive, e spesso immaginarie.

come già scritto in precedenza un livello di filtro si potrebbe probabilmente applicare anche se capisco che è molto complicato

Esatto.
Finora non ho affrontato questo aspetto, ma è davvero gigantesco. Considera la massa di dati pressoché infinita presente in Internet: si calcola che alla fine del 2025 conterrà circa 180 zettabytes (uno zettabyte equivale a un triliardo di gigabytes). La mente umana non può nemmeno comprendere cifre simili.
Ora, se una ditta volesse operare una selezione su quei dati:
- Quante migliaia o milioni di operatori dovrebbe usare? Per quanti anni o decenni?
- E quali criteri di scelta userebbero? Decisi da chi? (il vecchio "Chi controllerà i controllori"?). Ovviamente ognuno applicherebbe criteri diversi.
- E visto che la massa di dati è in continuo aumento e rinnovamento, questa selezione durerebbe in eterno...

Vedi da te che è improponibile, ed anche fonte di infinite polemiche (i "sinistroidi" vorrebbero certi criteri ed i "destroidi" altri, non se ne uscirebbe più :facepalm: )
La via più percorribile, che AFAIK è quella usata, è di acquisire TUTTI i dati e poi applicare filtri e regole a posteriori. Che però non saranno mai infallibili.

ad esempio dopo il disastro nucleare di Cernobyl le centrali successive sono state costruite con sistemi di sicurezza tali che non si potesse più verificare un evento del genere.

Esatto.
E' una evoluzione progressiva e iterativa (si sbaglia, si impara, si migliora, si sbaglia di nuovo e si corregge, ecc.). Il progresso funziona così, non è mai perfetto ma è perfettibile.

Con questo esempio, la scelta senza senso sarebbe stata "Non costruiamo MAI centrali nucleari perché potrebbero essere pericolose" (cosa che molti hanno invocato). Ma allora saremmo ancora all'età della pietra. :rolleyes:


Traendo una conclusione finale, personalmente trovo che forse siamo ormai ad un punto dove si parlerà di un prima ed un dopo, come lo è stato per il cinema, la TV, il telefono cellulare ed internet, probabilmente l'AI avrà un impatto sulle nostre vite altrettanto importante, poi quanto in positivo o in negativo "Lo scopriremo solo vivendo" (come cantava anche un certo Lucio Battisti)
  • 1

Avatar utente
DanyDuck
Amico level twelve
 
Stato:
Messaggi: 596
Iscritto il: 23/09/2019, 19:52
Località: Alessandria
Genere: Maschile

Precedente

Torna a Chiacchiere in cucina

Chi c’è in linea in questo momento?

Visitano il forum: Nessuno e 1 ospite

Reputation System ©'