Dato che il tema è senza dubbio di attualità, mi chiedevo (e ora lo chiedo a Zane e a tutta la comunità) qual'è la politica da seguire riguardo alle IA?
In particolare, secondo me, ci sono due ambiti da prendere in considerazione, uno è la pubblicazione di materiale prodotto tramite AI e l'altro è lo scraping del sito per addestramento.
Nel primo caso, opinione personale, penso che potrebbe anche essere permesso ma ad una condizione imprescindibile: l'articolo (o il post?) devono essere marcati come "prodotti con l'aiuto di una IA". Ritengo che questo potrebbe rappresentare un plus per il sito, informando correttamente il lettore (anche occasionale) dell'origine di quello che sta leggendo.
Questo però si dovrebbe applicare anche nel caso il contenuto sia stato riveduto e corretto da un umano? Qui sinceramente non ho un idea chiara forse, anche per semplificare le cose, andrebbe comunque adottato a prescindere, in modo da non dover valutare quanto a fondo è stata fatta la revisione.
Naturalmente dato che, attualmente, non c'è un modo per essere sicuri al 100% se un testo è stato generato o meno, dovremo dare fiducia agli autori che dovrebbero dichiarare apertamente l'origine di quello che pubblicano. Questo non mi sembra un grosso problema dato che anche adesso ci fidiamo del fatto che il contenuto sia originale e non copiato da altri siti.
Per quanto riguarda lo scraping, per prima cosa, è presente? Qui ci può illuminare solo Zane.
Sempre come opinione personale, non mi va che il mio lavoro possa essere utilizzato per addestrare una IA e quindi la mia idea sarebbe di cercare di bloccare questi bot (ammesso che sia possibile).
Voi cosa ne pensate?
"Let me tell you a secret: when you hear that the machine is “smart”, what it actually means is that it’s exploitable." Mikko Hypponen
concordo sul fatto che i contenuti prodotti integralmente tramite IA debbano essere esplicitamente indicati per legge. Sinceramente mi secca di iniziare a leggere un articolo per poi rendermi gradualmente conto che è un contenuto generato artificialmente che potrei anche produrre autonomamente. Se devo leggere qualcosa di interessante, preferisco che sia farina del sacco dell'autore. Per quanto riguarda la possibile successiva revisione del testo, non saprei come rispondere, certo è che ci si sente un poco presi in giro nel sapere di leggere contenuti generati da una macchina piuttosto che dalle riflessioni di un essere umano.
Per lo scraping e più in generale il "furto" che le IA stanno perpetrando con le loro razzie di contenuti nella rete, è una questione talmente complessa che non saprei come rispondere, spesso ho sfruttato la conoscenza che le IA raccolgono per risolvere problemi di lavoro e mi trovo in difficoltà ad esprimermi. In fondo la rete è condivisione di contenuti e la differenza nel trovarli come risposta di una IA piuttosto che nella pagina del legittimo autore, per l'utente finale fa poca differenza. Rimane il nodo del riconoscimento di chi ha creato il contenuto e del pagare l'azienda che gestisce l'IA e che guadagna in parte sull'operato altrui senza remunerarlo
Da profano in materia, la licenza Creative Commons di TurboLab (v. link della home) non sembra essere una difesa invalicabile contro l'uso dei contenuti per addestramento delle AI; viene esclusa la possibilità di monetizzare usando i contenuti (quindi le AI a pagamento non potrebbero usarli) e l'obbligo del mantenimento della stessa licenza dovrebbe vincolare le AI ad essere a loro volta proposte con medesima Creative Commons, tuttavia, restando con i piedi per terra, non credo ci sia modo di dimostrare che un'AI è stata addestrata su TurboLab o su qualunque altro sito; ammesso e non concesso che varrebbe poi la pena avviare i procedimenti legali del caso.
Sul "bollino" da mettere su eventuali articoli redatti dall'AI non ho obiezioni, né in un senso né nell'altro; se un articolo risulta utile o interessante, per me rimane tale anche se scopro che l'ha scritto una scimmia o un alieno (anche se capisco chi, psicologicamente, preferisce sapere che c'è stato un "tocco umano" sui contenuti, perché così la comunicazione ha un altro "tepore" e questa è una di quelle "situazioni" che distingue il nostro apprendimento da quello di un'AI).
Sempre come opinione personale, non avrei obiezioni a far addestrare le AI sui miei articolacci (a loro/nostro rischio e pericolo), soprattutto finché le AI addestrate mantengono una versione gratuita da usare per tutti (come finora tendenzialmente è, almeno in ambito di chatbot); sarebbe in un certo senso una forma allargata di condivisione, senza attribuzione personale, ma forse è meglio contribuire in modo anonimo alla conoscenza di molti, che essere ringraziati o apprezzati da pochi (dopo questo aforisma da Bacio Perugina, torno a dedicarmi al prossimo articolo, per ironia del destino incentrato proprio su una recente funzionalità di un'AI).
uno è la pubblicazione di materiale prodotto tramite AI
Fino a quando l'articolo è FATTO BENE, nel senso che:
spiega la procedura passo per passo in modo SPECIFICO e non GENERICO con tutti gli screenshot del caso senza le perifrasi e i convenevoli inutili tipici dell'AI l'autore dimostra di aver veramente provato quando scrive
Per me non ci sono problemi (e, francamente, a queste condizioni mi interessa molto poco se sia scritto dall'AI o meno). Anche perché la tendenza per il prossimo futuro, almeno da quanto si vede in questo momento, è sicuramente quella di sfruttare sempre di più l'AI.
l'altro è lo scraping del sito per addestramento
Al momento possiamo sicuramente valutare di aggiungere al robots.txt le direttive anti-scraping. Ma ho i miei seri dubbi che vengano rispettate, soprattutto considerata la fame di dati che hanno e gli interessi economici in gioco. D'altro canto, non ho nemmeno intenzione di mettermi a impazzire mettendo blocchi che magari funzionano anche oggi, ma che richiederebbero manutenzione costante per continuare a funzionare anche domani.
Al3x ha scritto: ↑dom apr 13, 2025 6:10 pm
In fondo la rete è condivisione di contenuti e la differenza nel trovarli come risposta di una IA piuttosto che nella pagina del legittimo autore, per l'utente finale fa poca differenza. Rimane il nodo del riconoscimento di chi ha creato il contenuto e del pagare l'azienda che gestisce l'IA e che guadagna in parte sull'operato altrui senza remunerarlo
Zigul ha scritto: ↑dom apr 13, 2025 9:50 pm
Sempre come opinione personale, non avrei obiezioni a far addestrare le AI sui miei articolacci (a loro/nostro rischio e pericolo), soprattutto finché le AI addestrate mantengono una versione gratuita da usare per tutti (come finora tendenzialmente è, almeno in ambito di chatbot); sarebbe in un certo senso una forma allargata di condivisione, senza attribuzione personale, ma forse è meglio contribuire in modo anonimo alla conoscenza di molti, che essere ringraziati o apprezzati da pochi.
Giustissimo: condividere è bello! Ma il motivo per cui non mi piace che il mio lavoro sia utilizzato per addestrare un IA, non è per il mancato riconoscimento personale che potrei trarne ma per non contribuire (nemmeno per una parte infinitesimale) ad arricchire le aziende che le gestiscono. Inoltre penso che se qualcuno trova le soluzioni tramite un IA non avrà certo motivo di cercarle altrove; questo porterà inevitalmente ad una riduzione dei visitatori e dei membri del nostro forum, tendenza questa che comunque sarà difficile da arginare anche bloccando lo scraping ma... perché favorirla?
Zane ha scritto: ↑dom apr 13, 2025 11:19 pm
Al momento possiamo sicuramente valutare di aggiungere al robots.txt le direttive anti-scraping. Ma ho i miei seri dubbi che vengano rispettate, soprattutto considerata la fame di dati che hanno e gli interessi economici in gioco. D'altro canto, non ho nemmeno intenzione di mettermi a impazzire mettendo blocchi che magari funzionano anche oggi, ma che richiederebbero manutenzione costante per continuare a funzionare anche domani.
Per bloccare lo scraping delle IA avevo letto di Anubis ma non ho approfondito troppo il funzionamento e soprattutto la manutenzione. Secondo la stessa sviluppatrice di Anubis (un po' troppo di parte?), la maggior parte degli scraper delle AI non rispetta le indicazioni del robots.txt, ma vale comuqnue la pena provare.
"Let me tell you a secret: when you hear that the machine is “smart”, what it actually means is that it’s exploitable." Mikko Hypponen
Zane ha scritto: ↑dom apr 13, 2025 11:19 pm senza le perifrasi e i convenevoli inutili tipici dell'AI
Avranno addestrato le IA troppe volte sul sito di Aranzulla...
Sei sicuro che le perifrasi e i convenevoli inutili sono tipici dell'AI? Tu affermi quindi che le perifrasi e i convenevoli inutili sono tipici dell'AI, mettiti comodo che finalmente potremo risolvere questo problema e ti dimostrerò che le perifrasi e i convenevoli inutili non sono tipici dell'AI ma anche degli umani.
Se, ordunque, finora hai creduto che le perifrasi e i convenevoli inutili sono tipici dell'AI, sappi che
bla bla bla. La soluzione dopo i tre/quarti di tutta la pappardella (spesso anche all'ultimo quarto...)
Scherzi a parte, concordo in toto con Zane ma sono d'accordo pure con CUB3. Già i social netwok - per quanto molto meno efficienti dal punto di vista della reperibilità di una specifica e dettagliata informazione - hanno messo in ginocchio la formula-Forum, adesso l'IA rischia di dare loro il colpo di grazia...
Anche a me non piace che il mio lavoro sia utilizzato per addestrare una IA che arricchisce l'aziende che le gestisce, ma in effetti Zane è realista, ci vorrebbero troppe risorse (tecniche e legali) per non farsi rapinare il proprio sudato lavoro.
ctsvevo ha scritto: ↑lun apr 14, 2025 11:39 am ci vorrebbero troppe risorse (tecniche e legali) per non farsi rapinare il proprio sudato lavoro.
Non dobbiamo proclamare guerra alle IA ma si potrebbe almeno adottare tutte le contromisure tecniche possibili che offrono la migliore resa con la minore spesa (ovviamente non solo di denaro ma anche di tempo per la gestione!), se non per bloccarle, almeno per ostacolarle. La parte legale non la prenderei nemmeno in considerazione a meno!
"Let me tell you a secret: when you hear that the machine is “smart”, what it actually means is that it’s exploitable." Mikko Hypponen
Chiaramente sono orientamenti personali; ad esempio a me pare "conveniente" far arricchire qualcuno (criminali e simili esclusi, ovviamente) piuttosto che non far arricchire nessuno, finendo con lo "sprecare" una potenziale ricchezza; soprattutto se (con qualcosa che non comporta per me costi o impegno extra: lo scraping e l'addestramento AI sono a carico altrui), arricchendo un'azienda magari già grande e stabile (che quindi dà lavoro a molte persone), questa poi mantiene la gratuità del prodotto di cui a mia volta fruisco (ho quindi un "ritorno" di utilità dell'addestramento a cui partecipo).
Se si decide di ostacolare l'addestramento di AI sul nostro sito, come detto, non ho obiezioni, ma rifletterei anche su chi/cosa ci "guadagna" a non addestrare con i nostri contenuti (niente/nessuno, suppongo, salvo illudersi che ci sarà "qualcosa che solo TurboLab può dirti e ChatGPT non saprà mai" e l'orgoglio si impenna...) e chi/cosa ci guadagna a contribuire all'addestramento (gli utenti delle AI e le aziende che si occupano di AI).
Se avessimo brevetti o know-how aziendale da tutelare, sarebbe ragionevole scegliere di non condividerli con le AI (o con altri "concorrenti"), ma se invece offriamo gratuitamente informazioni e procedure varie, mi chiedo perché va bene condividerle con il primo utente che passa, ma non con un'AI che le renderebbe condivisibili (magari anche migliorate, restiamo umili) ad un'utenza molto più vasta? Solo perché l'AI non consente di ricevere un grazie o perché può guadagnarci qualcuno che non siamo noi (che non incasseremmo comunque nulla)? De gustibus.
Per come frequento i forum, anche in altri settori, vedo talvolta utenti che fanno domande la cui risposta è "in prima pagina" su Google (non esattamente uno strumento sconosciuto riservato ai più dotti) o è stata già scritta in lungo e in largo; non mi stupirebbe quindi se, anche con potenti chatbot AI a disposizione, alcuni utenti facessero ancora domande in attesa che qualche anima pia faccia le veci di Google... e in fondo anche questo è un modo per "guadagnarsi il paradiso da forumisti": aiutare non solo i bisognosi, ma anche i "diversamente attenti" o coloro che, come accennavo sopra, hanno bisogno di "tepore" umano. Quest'ultimo aspetto (da non sottovalutare) dovrebbe garantire, aldilà degli sviluppi tecnologici, la "sensatezza" dell'esistenza dei forum, come luogo di incontri fra umani che si scambiano opinioni e impressioni, dopo aver magari provato l'ultimo browser o un programma poco noto, o condividono trucchetti non ancora indicizzati da Google e importati dalle AI. Magari ci saranno meno consulenze tecniche ridondanti ("spegni e riaccendi"; aggiorna i driver; ripristina il backup; etc.), ma dovrebbero restare vivi (in modo proporzionale agli utenti attivi, ovviamente) i topic di commento sulle news, sulle opinioni e sui test, su soluzioni o richieste meno "convenzionali", etc. tutti possibili dialoghi che solitamente si preferisce fare più con altri umani che con un chatbot (e non è questione di addestramento o meno).
Zigul ha scritto: ↑lun apr 14, 2025 3:51 pm
...ma rifletterei anche su chi/cosa ci "guadagna"...
Penso che possiamo essere piuttosto sicuri che coloro che ci guadagnano, soldi, siano i gestori delle IA. Oltre a questo non andrei perché pensare di ricavare un guadagno ottenendo un servizio gratuito in grado di semplificare alcune operazioni mi sembra quantomeno estremamente riduttivo senza tenere conto delle conseguenze, dei costi effettivi e degli effetti collaterali. Giusto per fare capire meglio cosa voglio intendere, riprendendo ad esempio il punto in cui parli dei posti di lavoro: già ora alcuni hanno perso il posto di lavoro rimpiazzati da una IA (e si stima che entro 10 anni, solo in Italia, potranno essere 3,8 milioni) ; il costo sociale di dover sostente anche minimamente, per un breve periodo, queste persone lo paghiamo poi tutti, non lo paga l'azienda che gestisce la IA che anzi continua a guadagnare, magari ha sede all'estero, magari evade le tasse e acquisisce sufficiente potere da fare lobbing su governi e istituzioni (Google docet)...
So bene che non sarà certo bloccare lo scraping delle IA su Turbolab a... portare la pace nel mondo? Ma io, da semplice cittadino, non ho altri poteri che prendere la decisione che reputo migliore, per quanto piccola possa essere, indipendentemente dal fatto che questa abbia effetto o meno.
Per me, il discorso del guadagno è chiuso qui perché non voglio diventare troppo polemico.
Zigul ha scritto: ↑lun apr 14, 2025 3:51 pm
Solo perché l'AI non consente di ricevere un grazie o perché può guadagnarci qualcuno che non siamo noi?
Premesso che non lo prendo come un attacco personale , giusto per essere chiari e diretti, un altro paio di punti li voglio mettere: quelle da te scritte sono problematiche a cui io non ho mai neanche lontanamente pensato. E nemmeno ho mai pensato o mi sono mai minimamente illuso o riempito di orgoglio a pensare che i miei mediocri articoli, sgrammaticati, che scrivo nei ritagli di tempo, per puro divertimento, possano fare la differenza nell'addestrare una IA.
"Let me tell you a secret: when you hear that the machine is “smart”, what it actually means is that it’s exploitable." Mikko Hypponen
CUB3 ha scritto: ↑lun apr 14, 2025 11:44 pm
quelle da te scritte sono problematiche a cui io non ho mai neanche lontanamente pensato.
Nessun riferimento personale, non era affatto quello a cui mi riferivo. In realtà le ipotesi che ho scritto (compiacimento personale e mancato guadagno altrui) sono le sole che mi sono venute in mente provando a pensare in generale a possibili motivi di "ostilità" verso l'addestramento delle AI con i nostri contenuti. A dirla tutta, sono il primo ad essere orgoglioso quando mi accorgo che ho aiutato qualcuno a sbrogliare un problema o suscito interesse con qualche spunto (anche perché non sono un informatico né lavoro nel settore), e i grazie mi fa sempre piacere riceverli; non dico affatto che siano aspetti che non contano (almeno non per me). Tuttavia, se ci rifletto a mente fredda, anche la possibilità di contribuire a strumenti usati su larga scala, non mi dispiace per nulla, soprattutto se so che sono gratuiti (rispetto il tuo non voler parlare di economia) e raggiungono un pubblico esponenzialmente più vasto e altrimenti irraggiungibile da TurboLab, se non altro per problemi di lingua. Nondimeno se Zane escogitasse un espediente per ostacolare l'addestramento delle AI sui nostri contenuti, non gli chiederei certo di non applicarlo o di fare un'eccezione per i miei; qualunque decisione in merito mi va bene, non ne faccio una questione ideologica.
Ad essere sincero, non sono proprio un "fanboy" dell'AI: mi interessa capirla (nei miei limiti), provarla e magari condividere quello che "scopro" in merito, ma non la integrerei mai troppo a fondo nella mia esistenza e la tengo lontana come la peste da dati e informazioni importanti. In fondo l'AI sta diventando per me un po' come lo smartphone: non mi è mai stato simpatico, ma ho dovuto comunque imparare ad usarlo, per "esigenza sociale" (SPID, 2FA, comunicazioni, etc.) più che per passione personale; certe tecnologie, come dicevo, sono irreversibili e talvolta il margine di scelta nel loro utilizzo è più stretto di quanto vorremmo (anche se questo non è ancora il caso dell'AI, per il momento, ma intanto provo a mettere un po' "le mani in pasta" per familiarizzarci).
Sempre in merito all'IA, come comporarsi con messaggi come questo (ciao drilloman ), copia-incollati da una IA?
Danno valore al forum o sono da considerare una forma di SPAM?
"Let me tell you a secret: when you hear that the machine is “smart”, what it actually means is that it’s exploitable." Mikko Hypponen
Non mi intendo di moderazione forum, ma mi sembra un risposta comunque pertinente e ricca di informazioni a tema (quindi "concettualmente" non direi che è spam); magari si può suggerire di ridurre l'interlinea, per rendere il messaggio meno esteso graficamente, ed eliminare la parte "parole chiave per la ricerca" che forse suona un po' beffardo come suggerimento.
Nel nostro regolamento è scritto: «evitare la ripubblicazione integrale sui nostri spazi di contenuti provenienti da altri siti. È possibile ripubblicare brevi estratti, inserendo il link di riferimento per la consultazione integrale, al fine di stimolare la discussione sull'argomento». Al riguardo, se non sbaglio, alcuni chatbot AI consentono di generare un link pubblico per la conversazione/risposta; magari come politica del forum si potrebbe chiedere agli utenti di utilizzare, quando è possibile, questi link piuttosto che fare un copia e incolla prolisso (si genererebbe traffico verso quei siti, senza comunque che venga ridotto il traffico verso TurboLab, che fungerebbe da raccordo fra l'utente del forum e il sito dell'AI).
Zigul ha scritto: ↑mer apr 16, 2025 11:32 am
Nel nostro regolamento è scritto: «evitare la ripubblicazione integrale sui nostri spazi di contenuti provenienti da altri siti. È possibile ripubblicare brevi estratti, inserendo il link di riferimento per la consultazione integrale, al fine di stimolare la discussione sull'argomento».
È proprio per questo che chiedevo! Messaggi copiati palesemente da una IA rientrano in questa formula?
Penso anche io che un link che rimanda alla risposta della IA sarebbe decisamente meglio, per la leggibilità complessiva della discussione e anche per la dichiarazione intrinseca della fonte (un IA).
Il motivo per cui ho aperto questa discussione è anche per sapere come comportarsi in queste situazioni.
"Let me tell you a secret: when you hear that the machine is “smart”, what it actually means is that it’s exploitable." Mikko Hypponen
Ho appena finito di leggere un articolo giornalistico che mi ha allarmato non poco , visto l' autore , riportante un mucchio di schifezze da non seguire . Poi all'ultima riga , la dichiarazione : Contenuto elaborato da ChatGPT . Pensiero : meno male , è tutto falso .
La IA ha preso tutto quello che ha trovato sull'argomento ed ha steso un articolo smascherando definitivamente chi sta(va) dietro alle schifezze riportate . Non male , però l'articolo sembrava vero , scritto dal presunto autore . E questo con la IA non dovrebbe succedere . Si deve poter distinguere se qualcosa è fatto da un umano o da una macchina .
Blumare ha scritto: ↑ven apr 18, 2025 12:45 pm
Si deve poter distinguere se qualcosa è fatto da un umano o da una macchina .
E dovrebbe pure essere obbligatoria una cosa semplice: data e nome dell'autore dell'articolo subito sotto il titolo dell'articolo stesso.
Un semplice accorgimento che mi (ci) farebbe risparmiare tanto tempo nella lettura prima di rendermi conto che sto leggendo un "riassunto intelligente" o un "articolo datato"...
Inserendo un messaggio, dichiari di aver letto e accettato il regolamento di partecipazione.
Nello specifico, sei consapevole che ti stai assumendo personalmente la totale responsabilità delle tue affermazioni, anche in sede civile e/o penale,
manlevando i gestori di questo sito da ogni coinvolgimento e/o pretesa di rivalsa.
Dichiari inoltre di essere consapevole che il messaggio sarà visibile pubblicamente, accetti di diffonderlo con licenza
CC BY-NC-SA 3.0 (con attribuzione a "TurboLab.it") e rinunci ad ogni forma di compensazione (economica o altro).
Rinunci inoltre esplicitamente a qualsiasi pretesa di cancellazione del messaggio.