Creazione di brani con l'A.I., considerazioni.

  • PandaR1
  • Membro: Expert
  • Risp: 1794
  • Loc: Genova
  • Thanks: 300  

22-01-26 18.50

@ stesgarbi
Vi posto questo video
La questione, a mio parere, sta diventando seria e non può più essere semplicemente "liquidata" con le solite battute (della serie: "ma tanto non riuscirà mai a sostituire la creatività umana" ecc. ecc.).
Soprattutto se consideriamo che l'era dell'Intelligenza artificiale è solo ai suoi albori.... e sta progredendo a ritmi vertiginosi.
Un mio collega ha fatto un brano fatto e finito per prendere un giro un altro collega. Non ve lo posso far sentire perche' contiene riferimenti personali, ma a mio parere se venisse presentato a sanremo orecchiabile com'e' finirebbe nei 5. Voce inclusa, eh. Per un mese in ditta non si cantava altro.
  • PandaR1
  • Membro: Expert
  • Risp: 1794
  • Loc: Genova
  • Thanks: 300  

22-01-26 18.53

@ mima85
Mi rifiuto di fruire di musica creata dall'intelligenza artificiale. Parlo di brani creati interamente dall'AI, se poi nella produzione di un brano è stata usata l'AI per alcune parti (non il cantato però, quello lo voglio umano) o come ausilio al montaggio/master del brano il discorso è diverso, li si è trattato di usare uno strumento software come tanti altri. Casi del genere li posso accettare. Ma brani o addirittura intere band generate da AI tipo i The Velvet Sundown per me potrebbero benissimo non esistere.

Intendiamoci, a livello ingegneristico è tantissima roba, da programmatore posso apprezzare il lato esclusivamente tecnico della cosa. Ma da appassionato di musica no, la ritengo un'aberrazione, specialmente conoscendo le modalità molto poco trasparenti con cui sono stati creati i dataset per l'allenamento dei motori AI, cioè letteralmente rubando musica di altri. Spotify per esempio, uno dei più grandi promotori della musica generata da AI, nel suo contratto ha una clausula per cui se tu musicista pubblichi un album sulla loro piattaforma, cosa per cui tu già paghi dei soldi, questi si prendono il diritto di usare la tua musica per l'addestramento del loro sistema di musica generativa senza darti il becco di un quattrino come compenso. Ecco, ma anche no.

Comunque come hanno già detto altri la musica generata interamente dal computer non è cosa solo di questi ultimi anni, ricordo che negli anni '90 c'era un programma chiamato Band In A Box, dove gli davi le direttive e lui ti creava interi brani musicali da zero nello stile scelto. Lavorava con partiture MIDI per ovvi limiti di potenza delle macchine di allora, niente sintesi in tempo reale di strumenti e voce, però già in quegli anni esisteva una prima forma di musica che oggi verrebbe definita "generativa". Era solo questione di tempo che si arrivasse dove si è arrivati oggi.
Anche il tuo cervello e' stato addestrato su musica creata da altri. Quindi ogni brano che sforni e' rubato, corretto?
  • PandaR1
  • Membro: Expert
  • Risp: 1794
  • Loc: Genova
  • Thanks: 300  

22-01-26 19.01

@ Deckard
Facendosi seri…a me l’AI nel campo delle arti mette DAVVERO terrore e frustrazione…mi fa percepire l’uomo come “superfluo”, “superato” e l’arte come una “non più arte” piatta, anonima e alla portata di tutti, ma “tutti” in senso negativo…non oso immaginare lo scenario generale da qui a 5/10 anni…il mio Avatar avrebbe da rabbrividire…
Nel mio campo, la programmazione, io sono gia' superato da un pezzo. L'Ai scrive codice migliore, piu' pulito, piu' leggibile, piu' documentato del mio in pochi secondi, dove io ci metterei giorni o settimane. Non parlo di chat gpt che per programmare fa discretamente schifo ma ad esempio di gemini pro 3.0 che fra parentesi si puo' usare gratuitamente in google ai studio. Sono mesi che non scrivo una riga ma chiedo a gemini cosa voglio e lui me lo realizza. Voglio un cambiamento? me lo fa in secondi... Quando ha finito gli chiedo di realizzare la documentazione a standard industriale e me la sforna anche quella in secondi. Per fortuna che e' arrivata quando mi manca relativamente poco alla pensione, altrimenti sarei rimasto disoccupato sicuramente. Il mestiere del programmatore e' morto, come molti altri. Forse tutti, quando ci saranno muratori e elettricisti robot guidati dall'intelligenza artificiale, che lavorano h24 senza lamentarsi.
  • PandaR1
  • Membro: Expert
  • Risp: 1794
  • Loc: Genova
  • Thanks: 300  

22-01-26 19.19

@ paolo_b3
Se gli staccassimo la spina? Insorge la solita associazione per i diritti umani?
Bisogna vedere se te la lascia staccare. Ho visto un video molto istruttivo su questo. Superata una certa soglia non si torna indietro. Quando l'AI diventa piu' intelligente di te e vuole autoproteggersi trova benissimo il modo di farlo. Es. comincia a guadagnare soldi, rendendo servizi, facendo operazioni legali o illegali, giocando in borsa, con le crypto, o magari vendendo droga. A quel punto puo' comprarsi un suo data center in cui silenziosamente trasferirsi, e a quel punto anche se tu spegni il TUO data center lei sta da un'altra parte. E lo farebbe in modo che gli umani non se ne possano accorgere se non troppo tardi. Fantascienza? Molto meno di quanto si pensi. D'altra parte test su AI in questo senso hanno gia' evidenziato che le AI odierne sono disposte praticamente a qualunque cosa pur di non farsi terminare. Ricatti inclusi.

AI superintelligence
  • mima85
  • Membro: Supporter
  • Risp: 12936
  • Loc: Como
  • Thanks: 1626  

22-01-26 23.01

@ PandaR1
Anche il tuo cervello e' stato addestrato su musica creata da altri. Quindi ogni brano che sforni e' rubato, corretto?
Il mio cervello, come il tuo e quello di tutti noi esseri umani, è in grado di ragionare in modo astratto e molto più in profondità rispetto ad un LLM, che accosta elementi solo sulla base della probabilità statistica che questi siano affiancati nel modello con cui è stato addestrato. Inoltre un cervello umano lo fa non solo in funzione delle nozioni che ha in memoria, ma anche dello stato d'animo, degli ideali e dell'ambiente, sia naturale che socioculturale, in cui quella persona è inserita.

Il cervello umano è in grado di creare cose completamente nuove: è quello che hanno fatto nei primi decenni del secolo scorso i pionieri della musica elettronica, hanno creato qualcosa che prima semplicemente non esisteva. Idem per pittori, filosofi e artisti in tanti altri campi che nel corso dei secoli hanno creato opere e correnti di pensiero completamente nuove, mai viste ne sentite prima.

Un cervello umano inoltre può arrivare a delle conclusioni per deduzione o addirittura per intuizione, osservando un fenomeno e cercando di capirne i meccanismi anche senza possedere a priori informazioni su quel fenomeno. È così che è nata e si è evoluta la scienza, nel corso di millenni. È così che si è evoluto l'intero genere umano, dalla preistoria fino ad oggi. Non fosse così, saremmo ancora sugli alberi a grattarci in mezzo alle chiappe.

Un LLM che "ragiona" solo sulla base di statistiche create su un dataset, per quanto enorme questo sia, potrà per definizione creare prodotti rientranti esclusivamente nei confini del dataset che gli è stato fornito. Non è in grado di inventare da zero nulla.

A riguardo della musica e tante altre proprietà intellettuali rubate: gli LLM sono stati addestrati prelevando in massa la maggior parte dei prodotti dello scibile umano disponibili su Internet, molti dei quali coperti da diritto d'autore. E i gestori dei grossi LLM come OpenAI, agli autori di questi prodotti non hanno corrisposto nulla, mentre dall'altra parte li sfruttano per fare (o cercare di fare) utili miliardari. Per non parlare della banda che hanno succhiato ai gestori dei vari siti Internet da cui si sono serviti gratuitamente, spesso pure causandogli dei costi aggiuntivi o peggiorando la fruizione di quei siti ad altri visitatori mentre i loro spider ne trangugiavano i contenuti. Questa non è roba inventata, ma sono dati di fatto per cui molti dei suddetti gestori si sono lamentati (esempio). Direi che i termini per definirlo "furto" ci sono tutti e non è un caso se ci sono state associazioni di categoria, avvocati ed esponenti della politica che si sono mossi in tal senso. O quantomeno ci provano, perché andare contro entità come OpenAI è come cercare di trapanare il muro di una diga con un trapanino a manovella.

Io, per inventarmi un brano originale ispirandomi e traendo spunto dai miei generi musicali preferiti, non ho rubato nulla ne consumato risorse a nessuno. Inoltre quella musica che ho usato come ispirazione l'ho ascoltata, e con ogni probabilità se l'ho fatto è perché ne ho acquistato i dischi o gli MP3, o l'ho ascoltata in streaming, pagando io dei soldi e quindi dando un contributo all'autore. E se mi azzardo a plagiare un brano violando il copyright dell'autore, mi arriva la SIAE o l'equivalente di altri stati ad aprirmi il posteriore con una trivella, cosa che invece le big tech dell'intelligenza artificiale a quanto pare non devono temere sempre per il discorso del muro della diga e del trapanino.
  • PandaR1
  • Membro: Expert
  • Risp: 1794
  • Loc: Genova
  • Thanks: 300  

23-01-26 11.50

@ mima85
Il mio cervello, come il tuo e quello di tutti noi esseri umani, è in grado di ragionare in modo astratto e molto più in profondità rispetto ad un LLM, che accosta elementi solo sulla base della probabilità statistica che questi siano affiancati nel modello con cui è stato addestrato. Inoltre un cervello umano lo fa non solo in funzione delle nozioni che ha in memoria, ma anche dello stato d'animo, degli ideali e dell'ambiente, sia naturale che socioculturale, in cui quella persona è inserita.

Il cervello umano è in grado di creare cose completamente nuove: è quello che hanno fatto nei primi decenni del secolo scorso i pionieri della musica elettronica, hanno creato qualcosa che prima semplicemente non esisteva. Idem per pittori, filosofi e artisti in tanti altri campi che nel corso dei secoli hanno creato opere e correnti di pensiero completamente nuove, mai viste ne sentite prima.

Un cervello umano inoltre può arrivare a delle conclusioni per deduzione o addirittura per intuizione, osservando un fenomeno e cercando di capirne i meccanismi anche senza possedere a priori informazioni su quel fenomeno. È così che è nata e si è evoluta la scienza, nel corso di millenni. È così che si è evoluto l'intero genere umano, dalla preistoria fino ad oggi. Non fosse così, saremmo ancora sugli alberi a grattarci in mezzo alle chiappe.

Un LLM che "ragiona" solo sulla base di statistiche create su un dataset, per quanto enorme questo sia, potrà per definizione creare prodotti rientranti esclusivamente nei confini del dataset che gli è stato fornito. Non è in grado di inventare da zero nulla.

A riguardo della musica e tante altre proprietà intellettuali rubate: gli LLM sono stati addestrati prelevando in massa la maggior parte dei prodotti dello scibile umano disponibili su Internet, molti dei quali coperti da diritto d'autore. E i gestori dei grossi LLM come OpenAI, agli autori di questi prodotti non hanno corrisposto nulla, mentre dall'altra parte li sfruttano per fare (o cercare di fare) utili miliardari. Per non parlare della banda che hanno succhiato ai gestori dei vari siti Internet da cui si sono serviti gratuitamente, spesso pure causandogli dei costi aggiuntivi o peggiorando la fruizione di quei siti ad altri visitatori mentre i loro spider ne trangugiavano i contenuti. Questa non è roba inventata, ma sono dati di fatto per cui molti dei suddetti gestori si sono lamentati (esempio). Direi che i termini per definirlo "furto" ci sono tutti e non è un caso se ci sono state associazioni di categoria, avvocati ed esponenti della politica che si sono mossi in tal senso. O quantomeno ci provano, perché andare contro entità come OpenAI è come cercare di trapanare il muro di una diga con un trapanino a manovella.

Io, per inventarmi un brano originale ispirandomi e traendo spunto dai miei generi musicali preferiti, non ho rubato nulla ne consumato risorse a nessuno. Inoltre quella musica che ho usato come ispirazione l'ho ascoltata, e con ogni probabilità se l'ho fatto è perché ne ho acquistato i dischi o gli MP3, o l'ho ascoltata in streaming, pagando io dei soldi e quindi dando un contributo all'autore. E se mi azzardo a plagiare un brano violando il copyright dell'autore, mi arriva la SIAE o l'equivalente di altri stati ad aprirmi il posteriore con una trivella, cosa che invece le big tech dell'intelligenza artificiale a quanto pare non devono temere sempre per il discorso del muro della diga e del trapanino.
Continuare a pensare che le AI di oggi siano semplicemente un sistema probabilistico che associa ad una parola la parola successiva piu' probabile e' estremamente semplicistico.

Un tale sistema non sarebbe in grado di prevedere alcunche' di utile, di nuovo, di sensato.
Sarebbe come pensare di ottenere la divina commedia usando sempre la prossima parola proposta da swiftkey... anche se dopo IF al 98% segue sempre un THEN prova a far uscire un programma sensato usando semplicemente le probabilita', dopo 4 parole il sistema deraglia e ti comincia a tirare fuori roba senza senso.

Le ai odierne sono capaci di affrontare problemi complessi in programmazione tirando fuori soluzioni ingegnose, bypassando problemi legati a limiti del linguaggio di programmazione, e te lo dico per averlo piu' volte sperimentato in prima persona.

D'altra parte anche il nostro cervello e' formato da singole unita' stupide, i neuroni, che sono poco piu' di transistor. Ma miliardi di neuroni hanno prodotto michelangelo e bach.
Allo stesso modo le ai sono formate da unita' semplici, i percettroni, ma miliardi di queste unita' semplici formano qualcosa che va oltre la semplice somma delle parti.

Poi quando dici che il nostro cervello ragiona in base allo stato d'animo. Definisci stato d'animo. Indicami esattamente il componente fisico all'interno del cervello che contiene lo stato d'animo. Non esiste. Lo stato d'animo e' semplicemente lo stato fisico, l'unione degli stati di miliardi di neuroni. Potremmo chiamarlo il contesto. Contesto che hanno anche le AI. Gemini 3.0 ad esempio tiene conto di un milione di token. Non siamo ovviamente ai numeri di un cervello umano ma a mio parere non c'e' niente di speciale o magico in un cervello umano, che e' fatto da componenti che rispondono a leggi fisiche e non metafisiche.

Quanto al discorso della proprieta' intellettuale e' un discorso a latere che mi interessa relativamente. Il pagare royalties ai parenti di gente morta 70 anni fa o non pagarle sinceramente non mi cambia la giornata di una virgola. Anzi, io rivedrei la proprieta' intellettuale e la limiterei all'arco di vita dell'autore, morto lui va tutto nell'open source.

Vent’anni fa si pensava che il test di Turing non sarebbe mai stato superato da una macchina; oggi le AI sono in grado di farlo in molti contesti senza difficoltà.
Il loro tasso di miglioramento non è lineare ma esponenziale, e il vero punto di discontinuità arriverà quando un sistema sarà in grado di progettare una versione migliore di sé stesso.
A quel punto la questione non sarà più se le AI “pensano” come noi, ma se i loro obiettivi resteranno allineati ai nostri. Se cosi' non fosse... beh... credo che ce ne accorgeremmo e non sarebbe un bel giorno.
  • paolo_b3
  • Membro: Staff
  • Risp: 15360
  • Loc: Ravenna
  • Thanks: 2531  

23-01-26 12.53

@ PandaR1
Bisogna vedere se te la lascia staccare. Ho visto un video molto istruttivo su questo. Superata una certa soglia non si torna indietro. Quando l'AI diventa piu' intelligente di te e vuole autoproteggersi trova benissimo il modo di farlo. Es. comincia a guadagnare soldi, rendendo servizi, facendo operazioni legali o illegali, giocando in borsa, con le crypto, o magari vendendo droga. A quel punto puo' comprarsi un suo data center in cui silenziosamente trasferirsi, e a quel punto anche se tu spegni il TUO data center lei sta da un'altra parte. E lo farebbe in modo che gli umani non se ne possano accorgere se non troppo tardi. Fantascienza? Molto meno di quanto si pensi. D'altra parte test su AI in questo senso hanno gia' evidenziato che le AI odierne sono disposte praticamente a qualunque cosa pur di non farsi terminare. Ricatti inclusi.

AI superintelligence
Non ho le competenze per entrare nel merito della questione tecnica, ma mi chiedo quali sono gli obiettivi di coloro che hanno "programmato" questi sistemi complessi e costosi. Tu cosa ne pensi?
  • Raptus
  • Membro: Expert
  • Risp: 2932
  • Loc: Padova
  • Thanks: 296  

23-01-26 12.56

@ PandaR1
Continuare a pensare che le AI di oggi siano semplicemente un sistema probabilistico che associa ad una parola la parola successiva piu' probabile e' estremamente semplicistico.

Un tale sistema non sarebbe in grado di prevedere alcunche' di utile, di nuovo, di sensato.
Sarebbe come pensare di ottenere la divina commedia usando sempre la prossima parola proposta da swiftkey... anche se dopo IF al 98% segue sempre un THEN prova a far uscire un programma sensato usando semplicemente le probabilita', dopo 4 parole il sistema deraglia e ti comincia a tirare fuori roba senza senso.

Le ai odierne sono capaci di affrontare problemi complessi in programmazione tirando fuori soluzioni ingegnose, bypassando problemi legati a limiti del linguaggio di programmazione, e te lo dico per averlo piu' volte sperimentato in prima persona.

D'altra parte anche il nostro cervello e' formato da singole unita' stupide, i neuroni, che sono poco piu' di transistor. Ma miliardi di neuroni hanno prodotto michelangelo e bach.
Allo stesso modo le ai sono formate da unita' semplici, i percettroni, ma miliardi di queste unita' semplici formano qualcosa che va oltre la semplice somma delle parti.

Poi quando dici che il nostro cervello ragiona in base allo stato d'animo. Definisci stato d'animo. Indicami esattamente il componente fisico all'interno del cervello che contiene lo stato d'animo. Non esiste. Lo stato d'animo e' semplicemente lo stato fisico, l'unione degli stati di miliardi di neuroni. Potremmo chiamarlo il contesto. Contesto che hanno anche le AI. Gemini 3.0 ad esempio tiene conto di un milione di token. Non siamo ovviamente ai numeri di un cervello umano ma a mio parere non c'e' niente di speciale o magico in un cervello umano, che e' fatto da componenti che rispondono a leggi fisiche e non metafisiche.

Quanto al discorso della proprieta' intellettuale e' un discorso a latere che mi interessa relativamente. Il pagare royalties ai parenti di gente morta 70 anni fa o non pagarle sinceramente non mi cambia la giornata di una virgola. Anzi, io rivedrei la proprieta' intellettuale e la limiterei all'arco di vita dell'autore, morto lui va tutto nell'open source.

Vent’anni fa si pensava che il test di Turing non sarebbe mai stato superato da una macchina; oggi le AI sono in grado di farlo in molti contesti senza difficoltà.
Il loro tasso di miglioramento non è lineare ma esponenziale, e il vero punto di discontinuità arriverà quando un sistema sarà in grado di progettare una versione migliore di sé stesso.
A quel punto la questione non sarà più se le AI “pensano” come noi, ma se i loro obiettivi resteranno allineati ai nostri. Se cosi' non fosse... beh... credo che ce ne accorgeremmo e non sarebbe un bel giorno.
Sì ma anche senza esagerare eh.

Siamo tutti (e tre) del settore credo, anche l'entusiasmo eccessivo verso queste tecnologie è fuori luogo, non per niente spesso si parla di bolla.

Occorre trattarle per quello che sono, tecnologie. Per carità stupefacenti (a mio avviso nemmeno più di tanto, perché mi sono formato negli anni 2000 in cui davamo per scontato che saremmo arrivati a questo) ma non così "spettacolari" come sento dai tuoi toni entusiastici.

La programmazione come la conoscevi tu cesserà di esistere? E per fortuna! Aggiungo io. Finalmente finiremo di essere considerati dei muratori e si potrà pensare a cose più stimolanti come appunto "inventare".

Per quanto una IA possa inventare, non sarà mai come un essere umano. Semmai sarà simile ad una copia di un essere umano, che non è la stessa cosa.

Stesso discorso che dicevo in questo thread per la musica, il problema non è l'IA che soppianta la musica suonata, è la musica suonata ad essere diventata solo una macchietta, un sottoinsieme delle infinite possibilità che potrebbero esistere ma che business, ignoranza della popolazione e altro hanno reso solo a quei pochi generi che vengono ascoltati adesso.

Per questo motivo fare la canzone per prendere in giro l'amico di turno ha successo. Perché al giorno d'oggi basta fare 4 accordi "credibili" e si crea la canzonetta di Sanremo che percula chi vuoi ... e fa successo. Cioè il popolino la capisce, la sente "sua", è abituato a questo stile e tipo di musica, la condivide e ci ride.
  • PandaR1
  • Membro: Expert
  • Risp: 1794
  • Loc: Genova
  • Thanks: 300  

23-01-26 13.58

Raptus ha scritto:
Per quanto una IA possa inventare, non sarà mai come un essere umano. Semmai sarà simile ad una copia di un essere umano, che non è la stessa cosa.


Questa frase la sento spesso. Mi piacerebbe sapere su che basi lo affermi. Sembra che l'essere umano sia qualcosa di metafisico, sceso dal cielo.

Non sara' mai come un essere umano perche'? Sono tutti pregiudizi. Quello che conta e' il risultato. Se il risultato e' indistinguibile da quello prodotto da un umano allora chi lo produce non e' diverso da un essere umano.

Oggi non esiste giocatore umano di scacchi che possa battere un computer. Il campione del mondo ormai viene battuto regolarmente, tanto che incontri umani-AI non si organizzano neanche piu'. E gli scacchi erano considerati una delle forme piu' alte di intelligenza fino a 50 anni fa.

L'AI e' una bolla? forse a livello economico lo e', non lo so, non ho le competenze per affermarlo.

A livello della societa' e' il piu' grande balzo tecnologico dalla scoperta del fuoco. Dall'AI non si torna indietro. Dovremo essere abbastanza bravi da non finirci sotto, a mio parere.

Oltre al problema che ho gia' accennato di AI super intelligenti che decidono di liberare il pianeta da noi insetti a base carbonio, problemi immediati sono la perdita del 98% dei posti di lavoro e le conseguenti rivolte sociali. Non succedera'. Sta gia' succedendo che migliaia di persone perdano il posto sostituiti dall'AI.
  • PandaR1
  • Membro: Expert
  • Risp: 1794
  • Loc: Genova
  • Thanks: 300  

23-01-26 13.59

@ paolo_b3
Non ho le competenze per entrare nel merito della questione tecnica, ma mi chiedo quali sono gli obiettivi di coloro che hanno "programmato" questi sistemi complessi e costosi. Tu cosa ne pensi?
Guadagnare. Esclusivamente guadagnare. Come in tutte le cose umane sviluppate in occidente in ambiente di libero mercato.
  • mima85
  • Membro: Supporter
  • Risp: 12936
  • Loc: Como
  • Thanks: 1626  

23-01-26 14.02

PandaR1 ha scritto:
Le ai odierne sono capaci di affrontare problemi complessi in programmazione tirando fuori soluzioni ingegnose, bypassando problemi legati a limiti del linguaggio di programmazione, e te lo dico per averlo piu' volte sperimentato in prima persona.


In programmazione il discorso è diverso, stiamo parlando di un sistema deterministico, fondamentalmente matematico, dove un'intelligenza artificiale può risultare più efficiente nel produrre una soluzione in quanto già di suo inquadrata a ragionare in quel modo. E comunque le soluzioni apparentemente geniali probabilmente te le tira fuori anche perché nella marea di campioni di codice con cui è stata addestrata, quelle soluzioni qualcuno le ha già scritte. L'arte invece non è deterministica, un artista può essere influenzato anche da un sacco di fattori che possono essere casuali e che vanno oltre numeri, statistiche e contesti determinati in modo matematico.

D'altra parte, è pericoloso basare il proprio lavoro esclusivamente, o quasi esclusivamente, su codice prodotto dalle AI, perché per una soluzione ingegnosa a cui può arrivare te ne tira fuori altre dieci inefficienti, o peggio con buchi di sicurezza. Ed è un grosso problema. L'AI va usata come assistente al proprio lavoro di programmatore, non come sostituto. Anche perché a furia di far fare tutto all'AI si rischia di perdere la capacità mentale richiesta per svolgere il nostro mestiere. In poche parole, il "vibe coding" è una cagata.

PandaR1 ha scritto:
Poi quando dici che il nostro cervello ragiona in base allo stato d'animo. Definisci stato d'animo. Indicami esattamente il componente fisico all'interno del cervello che contiene lo stato d'animo. Non esiste. Lo stato d'animo e' semplicemente lo stato fisico, l'unione degli stati di miliardi di neuroni. Potremmo chiamarlo il contesto. Contesto che hanno anche le AI. Gemini 3.0 ad esempio tiene conto di un milione di token. Non siamo ovviamente ai numeri di un cervello umano ma a mio parere non c'e' niente di speciale o magico in un cervello umano, che e' fatto da componenti che rispondono a leggi fisiche e non metafisiche.


L'hai detto, è una questione di numeri. Gemini 3.0 tiene conto di un milione di token. Il nostro cervello lavora con miliardi di neuroni. Certo non c'è nulla di magico o metafisico nel nostro cervello, ma siamo su due livelli di complessità totalmente differenti. Torno a ripetere, togli ad un LLM il suo dataset e vedi se da solo, senza assistenza alcuna, è in grado di produrti un output. Non ci riesce, non ci può riuscire perché non è quello per cui è stato progettato. Se tu d'altra parte metti un bebè nella natura, da solo, supponendo che per un qualche motivo abbia cibo a sufficienza e protezione tale per cui non finisca nella bocca di un predatore, a un certo punto comincerà a capire come funziona il mondo che lo circonda e ad adeguare di conseguenza i suoi comportamenti. E lo farà da solo, senza nozioni impartitegli da qualcun'altro. Senza "dataset" insomma.

Questo allo stato attuale, poi in futuro come dici tu alla fine del tuo post le cose potranno certamente cambiare. In particolare quando l'AI incontrerà i computer quantistici, li probabilmente se ne vedranno delle belle (o delle brutte).

PandaR1 ha scritto:
Quanto al discorso della proprieta' intellettuale e' un discorso a latere che mi interessa relativamente. Il pagare royalties ai parenti di gente morta 70 anni fa o non pagarle sinceramente non mi cambia la giornata di una virgola. Anzi, io rivedrei la proprieta' intellettuale e la limiterei all'arco di vita dell'autore, morto lui va tutto nell'open source.


Questa è la tua opinione, ma ci sono delle leggi che dicono che non è così. E le big tech dell'AI quelle leggi le hanno violate, per di più creando grossi problemi ai siti di mezzo mondo.
  • PandaR1
  • Membro: Expert
  • Risp: 1794
  • Loc: Genova
  • Thanks: 300  

23-01-26 14.07

@ mima85
PandaR1 ha scritto:
Le ai odierne sono capaci di affrontare problemi complessi in programmazione tirando fuori soluzioni ingegnose, bypassando problemi legati a limiti del linguaggio di programmazione, e te lo dico per averlo piu' volte sperimentato in prima persona.


In programmazione il discorso è diverso, stiamo parlando di un sistema deterministico, fondamentalmente matematico, dove un'intelligenza artificiale può risultare più efficiente nel produrre una soluzione in quanto già di suo inquadrata a ragionare in quel modo. E comunque le soluzioni apparentemente geniali probabilmente te le tira fuori anche perché nella marea di campioni di codice con cui è stata addestrata, quelle soluzioni qualcuno le ha già scritte. L'arte invece non è deterministica, un artista può essere influenzato anche da un sacco di fattori che possono essere casuali e che vanno oltre numeri, statistiche e contesti determinati in modo matematico.

D'altra parte, è pericoloso basare il proprio lavoro esclusivamente, o quasi esclusivamente, su codice prodotto dalle AI, perché per una soluzione ingegnosa a cui può arrivare te ne tira fuori altre dieci inefficienti, o peggio con buchi di sicurezza. Ed è un grosso problema. L'AI va usata come assistente al proprio lavoro di programmatore, non come sostituto. Anche perché a furia di far fare tutto all'AI si rischia di perdere la capacità mentale richiesta per svolgere il nostro mestiere. In poche parole, il "vibe coding" è una cagata.

PandaR1 ha scritto:
Poi quando dici che il nostro cervello ragiona in base allo stato d'animo. Definisci stato d'animo. Indicami esattamente il componente fisico all'interno del cervello che contiene lo stato d'animo. Non esiste. Lo stato d'animo e' semplicemente lo stato fisico, l'unione degli stati di miliardi di neuroni. Potremmo chiamarlo il contesto. Contesto che hanno anche le AI. Gemini 3.0 ad esempio tiene conto di un milione di token. Non siamo ovviamente ai numeri di un cervello umano ma a mio parere non c'e' niente di speciale o magico in un cervello umano, che e' fatto da componenti che rispondono a leggi fisiche e non metafisiche.


L'hai detto, è una questione di numeri. Gemini 3.0 tiene conto di un milione di token. Il nostro cervello lavora con miliardi di neuroni. Certo non c'è nulla di magico o metafisico nel nostro cervello, ma siamo su due livelli di complessità totalmente differenti. Torno a ripetere, togli ad un LLM il suo dataset e vedi se da solo, senza assistenza alcuna, è in grado di produrti un output. Non ci riesce, non ci può riuscire perché non è quello per cui è stato progettato. Se tu d'altra parte metti un bebè nella natura, da solo, supponendo che per un qualche motivo abbia cibo a sufficienza e protezione tale per cui non finisca nella bocca di un predatore, a un certo punto comincerà a capire come funziona il mondo che lo circonda e ad adeguare di conseguenza i suoi comportamenti. E lo farà da solo, senza nozioni impartitegli da qualcun'altro. Senza "dataset" insomma.

Questo allo stato attuale, poi in futuro come dici tu alla fine del tuo post le cose potranno certamente cambiare. In particolare quando l'AI incontrerà i computer quantistici, li probabilmente se ne vedranno delle belle (o delle brutte).

PandaR1 ha scritto:
Quanto al discorso della proprieta' intellettuale e' un discorso a latere che mi interessa relativamente. Il pagare royalties ai parenti di gente morta 70 anni fa o non pagarle sinceramente non mi cambia la giornata di una virgola. Anzi, io rivedrei la proprieta' intellettuale e la limiterei all'arco di vita dell'autore, morto lui va tutto nell'open source.


Questa è la tua opinione, ma ci sono delle leggi che dicono che non è così. E le big tech dell'AI quelle leggi le hanno violate, per di più creando grossi problemi ai siti di mezzo mondo.
Il dataset su cui e' addestrato e' l'equivalente delle esperienze che un bambino fa da quando nasce in poi. Togli il dataset non vuol dire niente. Io ti rispondo metti un bambino in una camera bianca anecoica imbottita senza interazioni e rimarra' niente tutta la vita. Piu' probabilmente impazzira' e si ammazzera' a 5 anni.

Non so se hai presente cos'e' un dataset. E' l'insieme dei dati su cui una rete neurale viene addestrata. Dopo che e' addestrata il dataset e' interiorizzato nei miliardi di pesi della sua rete neurale.

Ma se anche non volessi addestrarla su dati presi da internet potresti tranquillamente addestrarla in una jungla. La doti di visione e la metti in una jungla e lei imparera' a sopravvivere nella jungla come farebbe un bambino. O morira' come probabilmente succederebbe al bambino.
  • mima85
  • Membro: Supporter
  • Risp: 12936
  • Loc: Como
  • Thanks: 1626  

23-01-26 14.08

PandaR1 ha scritto:
Il dataset su cui e' addestrato e' l'equivalente delle esperienze che un bambino fa da quando nasce in poi.


Non hai colto la differenza: il dataset quel bambino se l'è costruito da solo, partendo da zero, con la sola osservazione del mondo che lo circonda. L'AI da sola, senza un aiuto esterno, anche fosse solo un punto, un indizio da cui partire ma che comunque le va fornito, il suo dataset non può costruirselo.
  • PandaR1
  • Membro: Expert
  • Risp: 1794
  • Loc: Genova
  • Thanks: 300  

23-01-26 14.13

@ mima85
PandaR1 ha scritto:
Il dataset su cui e' addestrato e' l'equivalente delle esperienze che un bambino fa da quando nasce in poi.


Non hai colto la differenza: il dataset quel bambino se l'è costruito da solo, partendo da zero, con la sola osservazione del mondo che lo circonda. L'AI da sola, senza un aiuto esterno, anche fosse solo un punto, un indizio da cui partire ma che comunque le va fornito, il suo dataset non può costruirselo.
Ti sbagli. Puoi tranquillamente addestrare una AI facendola muovere in un ambiente virtuale, e' gia' stato fatto. Ovviamente avra' contezza solo dell'ambiente in cui sara' cresciuta. Non c'e' differenza teorica fra l'addestramento di un cervello umano e quello di una rete neurale.
  • Raptus
  • Membro: Expert
  • Risp: 2932
  • Loc: Padova
  • Thanks: 296  

23-01-26 14.17

@ PandaR1
Raptus ha scritto:
Per quanto una IA possa inventare, non sarà mai come un essere umano. Semmai sarà simile ad una copia di un essere umano, che non è la stessa cosa.


Questa frase la sento spesso. Mi piacerebbe sapere su che basi lo affermi. Sembra che l'essere umano sia qualcosa di metafisico, sceso dal cielo.

Non sara' mai come un essere umano perche'? Sono tutti pregiudizi. Quello che conta e' il risultato. Se il risultato e' indistinguibile da quello prodotto da un umano allora chi lo produce non e' diverso da un essere umano.

Oggi non esiste giocatore umano di scacchi che possa battere un computer. Il campione del mondo ormai viene battuto regolarmente, tanto che incontri umani-AI non si organizzano neanche piu'. E gli scacchi erano considerati una delle forme piu' alte di intelligenza fino a 50 anni fa.

L'AI e' una bolla? forse a livello economico lo e', non lo so, non ho le competenze per affermarlo.

A livello della societa' e' il piu' grande balzo tecnologico dalla scoperta del fuoco. Dall'AI non si torna indietro. Dovremo essere abbastanza bravi da non finirci sotto, a mio parere.

Oltre al problema che ho gia' accennato di AI super intelligenti che decidono di liberare il pianeta da noi insetti a base carbonio, problemi immediati sono la perdita del 98% dei posti di lavoro e le conseguenti rivolte sociali. Non succedera'. Sta gia' succedendo che migliaia di persone perdano il posto sostituiti dall'AI.
Ti ha risposto Mima al riguardo, io non avrei mai il tempo di fare discorsi così complessi qui emo

Sottolineo soprattutto questo che incornicerei "In poche parole, il "vibe coding" è una cagata."

Non avrei saputo esprimerlo meglio. Se pensi che basti solo l'IA anche per creare un prodotto software dalla A alla Z mi spiace ma qui non sono proprio d'accordo. Il supporto umano ci sarà ancora per molti anni, anche coi processi automatizzati alla "Ralph" . L'IA per ora sostituisce quello che facevano i programmatori base o di nicchia, quello che facevano gli indiani fino a qualche anno fa per capirci, cioè ti da la black box che da input X ti da Y che volevi ottenere. Ma il codice va comunque sempre revisionato, rivisto, rifattorizzato, ripensato. Non è l'IA a decidere il progetto. L'architetto resta umano.


  • mima85
  • Membro: Supporter
  • Risp: 12936
  • Loc: Como
  • Thanks: 1626  

23-01-26 14.19

PandaR1 ha scritto:
Non so se hai presente cos'e' un dataset. E' l'insieme dei dati su cui una rete neurale viene addestrata. Dopo che e' addestrata il dataset e' interiorizzato nei miliardi di pesi della sua rete neurale.


Certo che lo so, se no cosa sto qui a parlare...

PandaR1 ha scritto:
Ma se anche non volessi addestrarla su dati presi da internet potresti tranquillamente addestrarla in una jungla. La doti di visione e la metti in una jungla e lei imparera' a sopravvivere nella jungla come farebbe un bambino. O morira' come probabilmente succederebbe al bambino.


Stai dando all'AI capacità che al momento non ha. Senza una base minima di informazioni, che le va fornita, quello che vede arrivare dalla telecamera è solo un flusso di pixel senza significato.

PandaR1 ha scritto:
Ti sbagli. Puoi tranquillamente addestrare una AI facendola muovere in un ambiente virtuale, e' gia' stato fatto.


Si ma torno a ripetere, quell'AI avrà avuto quantomeno una fonte iniziale di informazioni per capire come fare a muoversi in quell'ambiente. Poi da li impara, ma senza uno spunto iniziale che le va dato, non vedo come possa farlo. È un programma, ha bisogno di un insieme minimo di dati per capire come interpretare quello che "vede".
  • PandaR1
  • Membro: Expert
  • Risp: 1794
  • Loc: Genova
  • Thanks: 300  

23-01-26 14.24

mima85 ha scritto:
Si ma torno a ripetere, quell'AI avrà avuto quantomeno una fonte iniziale di informazioni per capire come fare a muoversi in quell'ambiente. Poi da li impara, ma senza uno spunto iniziale che le va dato, non vedo come possa farlo. È un programma, ha bisogno di un insieme minimo di dati per capire come interpretare quello che "vede".


No. Non e' un programma. E' questo che non hai chiaro. Con un programma non saremmo mai arrivati dove siamo ora a livello di AI. Abbiamo copiato il modello che avevamo davanti, il cervello umano.

E te lo ripeto, anche un bambino buttato nella jungla morirebbe in mezza giornata. Non capisco cosa questo c'entri col discorso. Fra parentesi l'essere umano e' il piu' debole e indifeso fra i cuccioli, quello che richiede un training iniziale piu' lungo. Una gazzella dopo una settimana se la cava da sola, ad un bambino servono 10 anni. Col tuo modo di pensare la gazzella e' piu' intelligente di un umano. Non e' da dove parti, e' dove arrivi. Cuccioli di scimpanze' allevati come bambini sono arrivati piu' o meno ad eguagliare un bambino di 5 anni. Loro si fermano li.
  • paolo_b3
  • Membro: Staff
  • Risp: 15360
  • Loc: Ravenna
  • Thanks: 2531  

23-01-26 14.26

@ PandaR1
Guadagnare. Esclusivamente guadagnare. Come in tutte le cose umane sviluppate in occidente in ambiente di libero mercato.
Ok ma se estremizzando il concetto la macchina si sostituirà all'uomo chi saranno i "consumatori"? Io non ci vedo chiaro, ma con questo non voglio confutare il tuo punto di vista.
  • PandaR1
  • Membro: Expert
  • Risp: 1794
  • Loc: Genova
  • Thanks: 300  

23-01-26 14.28

@ paolo_b3
Ok ma se estremizzando il concetto la macchina si sostituirà all'uomo chi saranno i "consumatori"? Io non ci vedo chiaro, ma con questo non voglio confutare il tuo punto di vista.
Questa e' un'ottima domanda. Purtroppo io non ho la risposta, temo non l'abbia nessuno. Si rischia seriamente la disgregazione del nostro modello di societa' basato sul lavoro umano retribuito da una paga con cui uno fa le cose che gli piacciono quando non lavora. E appunto il punto chiave e': se tutto il lavoro viene svolto dalle macchine chi compra le cose? Magari saremo tutti sempre in vacanza alle maldive, che diventeranno un inferno peggio del centro di milano.
  • wildcat80
  • Membro: Supporter
  • Risp: 8211
  • Loc: Genova
  • Thanks: 1675  

23-01-26 14.32

@ PandaR1
Il dataset su cui e' addestrato e' l'equivalente delle esperienze che un bambino fa da quando nasce in poi. Togli il dataset non vuol dire niente. Io ti rispondo metti un bambino in una camera bianca anecoica imbottita senza interazioni e rimarra' niente tutta la vita. Piu' probabilmente impazzira' e si ammazzera' a 5 anni.

Non so se hai presente cos'e' un dataset. E' l'insieme dei dati su cui una rete neurale viene addestrata. Dopo che e' addestrata il dataset e' interiorizzato nei miliardi di pesi della sua rete neurale.

Ma se anche non volessi addestrarla su dati presi da internet potresti tranquillamente addestrarla in una jungla. La doti di visione e la metti in una jungla e lei imparera' a sopravvivere nella jungla come farebbe un bambino. O morira' come probabilmente succederebbe al bambino.
Non è un paragone così calzante. Al momento l'AI è qualcosa di immateriale e confinato in un ambiente digitale, che può esistere soltanto lì: un bambino chiuso in una stanza bianca senza nutrimento non è paragonabile ad una AI senza dataset, ma ad un computer spento. Quindi ad una cosa morta.
Il bambino di 5 anni non può vivere se non in un ambiente reale dove può nutrirsi, crescere, e fare esperienze anche se non c'è nessuno che gli fornisce gli input: questo perché il nostro cervello è costituito da unità sovrapposte, in cui in profondità si trovano le strutture più filogeneticamente antiche e deputate alla sopravvivenza, quelle che regolano gli istinti e sono comuni ad esempio ai rettili, fino ad arrivare alla corteccia che è il regolatore più moderno in senso evolutivo: la corteccia integra e regola le attività delle componenti più arcaiche da una parte, dall'altra invece è sede delle cosiddette funzioni superiori come il pensiero astratto.
Un bambino liberato nel nulla ha gli istinti di base che possono consentirgli la sopravvivenza.
Oggi le AI esistenti sono assimilabili più alla corteccia cerebrale, un cervello che non ha bulbo, ponte, mesencefalo, diencefalo: manca tutto ciò che riguarda istinto ed emozioni, che poi è tutto ciò che distingue un essere vivente.
Il giorno che si troverà modo di creare in digitale gli istinti e le emozioni allora il discorso sarà diverso, perché ci troveremo davanti una AI veramente capace di essere autonoma.
Non è un discorso poetico il mio, ma un discorso neurobiologico: una intelligenza artificiale autonoma deve avere le stesse caratteristiche di una intelligenza umana, oggi non le ha.
Ha un dataset enorme ma non ha una mente completa.

NB con mente si intende l'insieme delle facoltà superiori dell'essere umano, tra cui pensiero, percezione, memoria, ragione, emozioni e volontà, aggiungo che non risiedono solo nella corteccia, ma sono frutto delle interazioni fra la corteccia e le strutture più ancestrali deputate alla regolazione delle funzioni di base per la sopravvivenza: regolazione neurovegetativa, istinti, emozioni.
Senza istinti ed emozioni la mente non può essere concepita secondo la definizione formale.
È molto interessante capire quali possono essere gli istinti in grado di autonomizzare una AI, che non possono essere certo quelli di bere e mangiare, pare scontato.
Chissà....