È progresso?

  • Raptus
  • Membro: Expert
  • Risp: 3149
  • Loc: Padova
  • Thanks: 310  

14-04-26 10.54

@ Sbaffone
Alla fine sarà il mercato che si auto adatta, c’è una ricerca interessante su come i licenziamenti dovuti alla AI portano ad una diminuzione dei consumi causa perdita di potere di acquisto dei lavoratori rimasti senza lavoro, quindi o implode tutto o trova una mediazione
La cosa tragicomica è che anni fa quando ancora non ce l'avevamo sotto mano tutti dicevano che ci avrebbe semplificato la vita. Con l'IA avremmo lavorato un giorno in meno e preso come un giorno in più (ah no questa è un'altra storia emo)

Il transumanesimo no? Ve lo ricordate Kurzweil? sì lo stesso tizio delle nostre amiche tastiere ...

In realtà ad oggi ogni progetto che coinvolge l'IA ha triplicato il carico di lavoro, devo fare molte più ore di prima perché tutto si è spostato sulla gestione e controllo.

Bella la realtà eh ? Altro che robottini che lavorano per noi
  • mima85
  • Membro: Supporter
  • Risp: 13044
  • Loc: Como
  • Thanks: 1645  

14-04-26 10.58

Raptus ha scritto:
La cosa tragicomica è che anni fa quando ancora non ce l'avevamo sotto mano tutti dicevano che ci avrebbe semplificato la vita. Con l'IA avremmo lavorato un giorno in meno e preso come un giorno in più (ah no questa è un'altra storia)


Mi ricorda la storia dell'informatica che avrebbe eliminato la carta. Invece mi pare l'abbia solo aumentata, con più della metà che finisce dritta nel tritacarte perché alla fine è roba superflua.
  • PandaR1
  • Membro: Expert
  • Risp: 1832
  • Loc: Genova
  • Thanks: 300  

14-04-26 11.03

@ Raptus
La cosa tragicomica è che anni fa quando ancora non ce l'avevamo sotto mano tutti dicevano che ci avrebbe semplificato la vita. Con l'IA avremmo lavorato un giorno in meno e preso come un giorno in più (ah no questa è un'altra storia emo)

Il transumanesimo no? Ve lo ricordate Kurzweil? sì lo stesso tizio delle nostre amiche tastiere ...

In realtà ad oggi ogni progetto che coinvolge l'IA ha triplicato il carico di lavoro, devo fare molte più ore di prima perché tutto si è spostato sulla gestione e controllo.

Bella la realtà eh ? Altro che robottini che lavorano per noi
Io ho finito un progetto di interfacciamento tra sistemi via SOAP in circa due giorni grazie all'ia, era stimato in circa 2 mesi... poi vabbe' ci sono voluti lo stesso mesi perche' avevo a che fare con degli impediti ma quelli purtroppo erano umani.
  • stesgarbi
  • Membro: Expert
  • Risp: 4504
  • Loc: Milano
  • Thanks: 222  

14-04-26 11.10

Raptus ha scritto:
Da ingegnere informatico io ho paura seria di quello che dite

Forse proprio l'essere un ingegnere informatico di questo tempo è il limite..
Del resto, a parte la battuta, non vedo alcuna confutazione nel merito,.
emo
  • stesgarbi
  • Membro: Expert
  • Risp: 4504
  • Loc: Milano
  • Thanks: 222  

14-04-26 11.14

mima85 ha scritto:
Mi ricorda la storia dell'informatica che avrebbe eliminato la carta. Invece mi pare l'abbia solo aumentata, con più della metà che finisce dritta nel tritacarte perché alla fine è roba superflua.

Questo è vero.... soprattutto in Italia.emoemoemo.
Tuttavia, da quando esiste il processo telematico e le raccomandate via PEC, nella mia professione di avvocato ho eliminato un bel mucchio di cartaceo.

Comunque, l'Intelligenza artificiale può definirsi figlia dell'informatica.... ma è cosa ben diversa.
  • Raptus
  • Membro: Expert
  • Risp: 3149
  • Loc: Padova
  • Thanks: 310  

14-04-26 11.16

@ PandaR1
Io ho finito un progetto di interfacciamento tra sistemi via SOAP in circa due giorni grazie all'ia, era stimato in circa 2 mesi... poi vabbe' ci sono voluti lo stesso mesi perche' avevo a che fare con degli impediti ma quelli purtroppo erano umani.
Adesso che hai finito prima ti caricheranno di molto più lavoro
  • PandaR1
  • Membro: Expert
  • Risp: 1832
  • Loc: Genova
  • Thanks: 300  

14-04-26 11.18

Raptus ha scritto:
Adesso che hai finito prima ti caricheranno di molto più lavoro


Nini, ho 25 anni di esperienza nel gonfiare le stime di consegna... emo
  • mima85
  • Membro: Supporter
  • Risp: 13044
  • Loc: Como
  • Thanks: 1645  

14-04-26 11.20

stesgarbi ha scritto:
Forse proprio l'essere un ingegnere informatico di questo tempo è il limite


D'altronde noi tecnici e ingegneri dobbiamo risolvere i problemi di questo tempo, spesso avendo a che fare con clienti incazzosi che vogliono le cose fatte per ieri e possibilmente aggratis. Le elucubrazioni mentali sul futuro le lasciamo a chi ha il tempo di potersele permettere.

E quando le elucubrazioni mentali raggiungono livelli di minchiate come "i diritti delle macchine" (giuro, ho letto di gente che pensa che le macchine con l'avvento dell'AI debbano avere dei diritti, quando nel mondo i diritti umani vengono calpestati ogni singolo giorno che passa), ci partono i santi.

stesgarbi ha scritto:
Comunque, l'Intelligenza artificiale può definirsi figlia dell'informatica.... ma è cosa ben diversa.


Questa, scusami, è una stupidaggine. L'intelligenza artificiale è una branca, uno dei tanti sottoinsiemi dell'universo "informatica", che è parecchio vasto e con diverse discipline in comune tra le varie branche.
  • maxpiano69
  • Membro: Staff
  • Risp: 27423
  • Loc: Torino
  • Thanks: 3784  

14-04-26 11.25

stesgarbi ha scritto:
Comunque, l'Intelligenza artificiale può definirsi figlia dell'informatica.... ma è cosa ben diversa.

Ma proprio per niente, l'attuale AI (o meglio i Large Language Models, che di "I" nel senso lessicale del termine non hanno un bel niente) è sempre un "processore digitale che fa dei conti", che poi lo faccia con una grossa potenza di calcolo, su una mole enorme di dati e con algoritmi complessi (ma alla fine neanche più di tanto, per gli addetti ai lavori) non ne cambia la sostanza: è un sistema informatico, gestisce "informazioni" rappresentate come dati digitali
  • PandaR1
  • Membro: Expert
  • Risp: 1832
  • Loc: Genova
  • Thanks: 300  

14-04-26 11.49

@ maxpiano69
stesgarbi ha scritto:
Comunque, l'Intelligenza artificiale può definirsi figlia dell'informatica.... ma è cosa ben diversa.

Ma proprio per niente, l'attuale AI (o meglio i Large Language Models, che di "I" nel senso lessicale del termine non hanno un bel niente) è sempre un "processore digitale che fa dei conti", che poi lo faccia con una grossa potenza di calcolo, su una mole enorme di dati e con algoritmi complessi (ma alla fine neanche più di tanto, per gli addetti ai lavori) non ne cambia la sostanza: è un sistema informatico, gestisce "informazioni" rappresentate come dati digitali
Sni. Una rete neurale viene eseguita da unita' di calcolo semplici, semplicissime (alla fine sono somme e moltiplicazioni di pesi) ma il principio di funzionamento e' completamente diverso da quello di una classica macchina di turing in cui un singolo esecutore legge ed esegue in modo sequenziale una sequenza di istruzioni.

Assomiglia invece moltissimo ai neuroni che vuole imitare. Una serie numerosissima di unita' elementari che da sole non vogliono dire quasi niente ma eseguite in parallelo e in cascata (come l'informazione nel cervello che si propaga tramite interazioni chimico-fisiche fra neuroni adiacenti collegati) con capacita' di rafforzare le connessioni in base ad un processo di retroazione tramite rafforzamento guidato da training.

Quello che ottieni e' completamente diverso da un software scritto da un umano che gira su una cpu. In questo caso il sw quasi non esiste (sto semplificando), essendo l'elaborazione costituita da sommatorie e moltiplicazioni, ed e' la numerosita' e il rafforzamento tramite training a produrre un risultato, in modo simile al cervello umano.

Immaginare una rete neurale come un programma normale vuol dire non aver capito le basi del suo funzionamento.
  • zerinovic
  • Membro: Supporter
  • Risp: 13391
  • Loc: Grosseto
  • Thanks: 1484  

14-04-26 11.49

@ maxpiano69
stesgarbi ha scritto:
Comunque, l'Intelligenza artificiale può definirsi figlia dell'informatica.... ma è cosa ben diversa.

Ma proprio per niente, l'attuale AI (o meglio i Large Language Models, che di "I" nel senso lessicale del termine non hanno un bel niente) è sempre un "processore digitale che fa dei conti", che poi lo faccia con una grossa potenza di calcolo, su una mole enorme di dati e con algoritmi complessi (ma alla fine neanche più di tanto, per gli addetti ai lavori) non ne cambia la sostanza: è un sistema informatico, gestisce "informazioni" rappresentate come dati digitali
difatti, concordo.
  • mima85
  • Membro: Supporter
  • Risp: 13044
  • Loc: Como
  • Thanks: 1645  

14-04-26 11.56

PandaR1 ha scritto:
Una rete neurale viene eseguita da unita' di calcolo semplici, semplicissime (alla fine sono somme e moltiplicazioni di pesi) ma il principio di funzionamento e' completamente diverso da quello di una classica macchina di turing in cui un singolo esecutore legge ed esegue in modo sequenziale una sequenza di istruzioni.


Ma i computer che ci stanno sotto sono macchine di Turing, ne più ne meno. Non stiamo parlando di computer quantistici o altre cose che trascendono completamente l'informatica classica.

L'AI è l'ultimo di una serie di strati software (intermedio quando questa viene usata a sua volta da altre applicazioni) e se scavi, quando arrivi in fondo trovi sempre processori che eseguono istruzioni in modo meccanico. Devi scavare tanto, perché gli strati di astrazione dall'hardware sono tanti, ma alla fine arrivi li.

E l'AI stessa è sempre, comunque, software. Vasto e complesso quanto vuoi, ma sempre di software si tratta.
  • PandaR1
  • Membro: Expert
  • Risp: 1832
  • Loc: Genova
  • Thanks: 300  

14-04-26 11.58

@ mima85
PandaR1 ha scritto:
Una rete neurale viene eseguita da unita' di calcolo semplici, semplicissime (alla fine sono somme e moltiplicazioni di pesi) ma il principio di funzionamento e' completamente diverso da quello di una classica macchina di turing in cui un singolo esecutore legge ed esegue in modo sequenziale una sequenza di istruzioni.


Ma i computer che ci stanno sotto sono macchine di Turing, ne più ne meno. Non stiamo parlando di computer quantistici o altre cose che trascendono completamente l'informatica classica.

L'AI è l'ultimo di una serie di strati software (intermedio quando questa viene usata a sua volta da altre applicazioni) e se scavi, quando arrivi in fondo trovi sempre processori che eseguono istruzioni in modo meccanico. Devi scavare tanto, perché gli strati di astrazione dall'hardware sono tanti, ma alla fine arrivi li.

E l'AI stessa è sempre, comunque, software. Vasto e complesso quanto vuoi, ma sempre di software si tratta.
Questo e' abbastanza ininfluente. Il cervello funziona tramite reazioni chimiche ma non partirei dalle ossido riduzioni per spiegare il suo funzionamento.
  • mima85
  • Membro: Supporter
  • Risp: 13044
  • Loc: Como
  • Thanks: 1645  

14-04-26 11.59

PandaR1 ha scritto:
Questo e' abbastanza ininfluente


Non è ininfluente quando si vuol far passare l'AI come qualcosa che ha poco o nulla a che vedere con l'informatica, o addirittura di magico come certe campagne di marketing vorrebbero, ma manco un po'.
  • PandaR1
  • Membro: Expert
  • Risp: 1832
  • Loc: Genova
  • Thanks: 300  

14-04-26 12.05

@ mima85
PandaR1 ha scritto:
Questo e' abbastanza ininfluente


Non è ininfluente quando si vuol far passare l'AI come qualcosa che ha poco o nulla a che vedere con l'informatica, o addirittura di magico come certe campagne di marketing vorrebbero, ma manco un po'.
Ha a vedere con l'informatica esattamente come il cervello ha a che vedere con la chimica e la nona di beethoven ha a che fare con la carta e l'inchiostro su cui e' scritta.

Il cervello funziona grazie alla chimica, le AI funzionano grazie all'informatica.

Ma il meccanismo che ci sta sotto e' molto diverso dal normale software sviluppato da un umano. Il software c'e', e' il framework, ma non c'e' nessuna intelligenza nel sw (cioe' c'e' intelligenza nell'averlo sviluppato e previsto meccanismi complessi che vanno oltre il multilayer perceptron classico, ma non c'e' una riga di conoscenza nel sw, non c'e' scritto da nessuna parte chi era bach o quanto fa 3+4). L'intelligenza sta nei pesi e nel training, e nella capacita' di queste reti di generalizzare a partire da un training fatto su dati noti. Esattamente come fa il cervello umano.

La differenza vera e' proprio la capacita' di generalizzare.

Se io chiedo a chat gpt quanto fa 148675 * 12,78 lui mi da la risposta giusta.
Ma dubito fortemente che nel suo training set ci fosse esattamente quella moltiplicazione con il risultato.
La rete ha quindi capacita' di generalizzazione.
Un programma normale non generalizza, fa esattamente quello per cui e' stato programmato.
  • Raptus
  • Membro: Expert
  • Risp: 3149
  • Loc: Padova
  • Thanks: 310  

14-04-26 12.26

PandaR1 ha scritto:
Se io chiedo a chat gpt quanto fa 148675 * 12,78 lui mi da la risposta giusta.


Parliamone, non è vero che dia sempre la risposta giusta. Capitato numerose volte che sbagliasse, anche dei calcoli banali, proprio perché non ragiona come un essere umano ma secondo criteri statistici.
  • d_phatt
  • Membro: Guru
  • Risp: 5362
  • Loc: Perugia
  • Thanks: 1158  

14-04-26 12.32

PandaR1 ha scritto:
Se io chiedo a chat gpt quanto fa 148675 * 12,78 lui mi da la risposta giusta.
Ma dubito fortemente che nel suo training set ci fosse esattamente quella moltiplicazione con il risultato.
La rete ha quindi capacita' di generalizzazione.
Un programma normale non generalizza, fa esattamente quello per cui e' stato programmato.

Mah, credo che in questi caso sia semplicemente addestrata a riconoscere una operazione aritmetica e a interrogare quindi una calcolatrice (o semplicemente un suo modulo dedicato al calcolo) e a inoltrarne il risultato.

Di base i LLM non fanno altro che calcolare qual è la prossima parola con la maggiore probabilità di comparire, in base all'algoritmo presente e ai dati di training. Dopodiché in alcuni casi questa idea di base viene integrata con altri algoritmi specializzati che vengono attivati in casi specifici nei loro domini di utilizzo, oppure con algoritmi di valutazione di "secondo livello" che sono quelli che realmente possono avvicinare quelle IA a una vera idea di comprensione e intelligenza, ma siamo ancora lontani. Per il resto è solo "probabilità della prossima parola in base ai dati che ho (che potrebbero essere sbagliati, incompleti, o datati)" . Non hanno comprensione di ciò che fanno, e quindi non generalizzano né astraggono - anche se possono dare l'idea di farlo. Infatti possono generare le cosiddette allucinazioni, cioè dare informazioni errate con la massima "convinzione".

Software che sbalordivano per i risultati ottenuti sono sempre esistiti. Dimostratori automatici di teoremi (banali), software scacchistici che battono i maggiori campioni mondiali, e soprattutto:
- Wolfram Mathematica (oggi accompagnato da Wolfram Alpha);
- Simulatori con modelli a elementi finiti per la progettazione meccanica e strutturale come SolidWorks e derivati;
- Simulatori per i calcoli aerodinamici e via dicendo.

Da decenni gli ingegneri si appoggiano a questi software che internamente risolvono e/o approssimano per via simbolica o numerica complessisimi integrali ed equazioni differenziali (magari alle derivate parziali), spesso senza poter avere la più remota idea di ciò che realmente accade, matematicamente parlando, e quindi senza poter entrare nel merito della correttezza dei calcoli se non tramite test empirici. Questo è il modo in cui vengono costruti i ponti che attraversiamo e gli aerei su cui voliamo.

Sono decenni che ci appoggiamo alla macchine digitali delegando loro tantissimo. L'IA è soltanto la nuova forma di tutto ciò.
  • PandaR1
  • Membro: Expert
  • Risp: 1832
  • Loc: Genova
  • Thanks: 300  

14-04-26 12.42

Raptus ha scritto:
Parliamone, non è vero che dia sempre la risposta giusta. Capitato numerose volte che sbagliasse, anche dei calcoli banali, proprio perché non ragiona come un essere umano ma secondo criteri statistici.


Vero, ma non hai colto il punto.

In un sw classico io devo prevedere ogni cosa che voglio fargli fare.

Es. ho un software che calcola radici quadrate? non sa fare le radici cubiche. Gli aggiungo la parte per le radici cubiche? non sa fare le radici in base 5. aggiungo qualunque base? non posso chiedergli chi era bach. Gli inserisco l'informazione su chi era bach? non sara' comunque in grado di scrivere una sinfonia come l'avrebbe scritta bach.

Ogni cosa che voglio fargli fare devo modificare il sw inserendo un modulo apposito.

In una rete neurale questo lavoro che sarebbe impossibile ovviamente da fare per ogni possibile domanda lo fanno i dati. La rete auto apprende dai dati e ha la capacita' di andare oltre il suo training set.
  • PandaR1
  • Membro: Expert
  • Risp: 1832
  • Loc: Genova
  • Thanks: 300  

14-04-26 12.45

@ d_phatt
PandaR1 ha scritto:
Se io chiedo a chat gpt quanto fa 148675 * 12,78 lui mi da la risposta giusta.
Ma dubito fortemente che nel suo training set ci fosse esattamente quella moltiplicazione con il risultato.
La rete ha quindi capacita' di generalizzazione.
Un programma normale non generalizza, fa esattamente quello per cui e' stato programmato.

Mah, credo che in questi caso sia semplicemente addestrata a riconoscere una operazione aritmetica e a interrogare quindi una calcolatrice (o semplicemente un suo modulo dedicato al calcolo) e a inoltrarne il risultato.

Di base i LLM non fanno altro che calcolare qual è la prossima parola con la maggiore probabilità di comparire, in base all'algoritmo presente e ai dati di training. Dopodiché in alcuni casi questa idea di base viene integrata con altri algoritmi specializzati che vengono attivati in casi specifici nei loro domini di utilizzo, oppure con algoritmi di valutazione di "secondo livello" che sono quelli che realmente possono avvicinare quelle IA a una vera idea di comprensione e intelligenza, ma siamo ancora lontani. Per il resto è solo "probabilità della prossima parola in base ai dati che ho (che potrebbero essere sbagliati, incompleti, o datati)" . Non hanno comprensione di ciò che fanno, e quindi non generalizzano né astraggono - anche se possono dare l'idea di farlo. Infatti possono generare le cosiddette allucinazioni, cioè dare informazioni errate con la massima "convinzione".

Software che sbalordivano per i risultati ottenuti sono sempre esistiti. Dimostratori automatici di teoremi (banali), software scacchistici che battono i maggiori campioni mondiali, e soprattutto:
- Wolfram Mathematica (oggi accompagnato da Wolfram Alpha);
- Simulatori con modelli a elementi finiti per la progettazione meccanica e strutturale come SolidWorks e derivati;
- Simulatori per i calcoli aerodinamici e via dicendo.

Da decenni gli ingegneri si appoggiano a questi software che internamente risolvono e/o approssimano per via simbolica o numerica complessisimi integrali ed equazioni differenziali (magari alle derivate parziali), spesso senza poter avere la più remota idea di ciò che realmente accade, matematicamente parlando, e quindi senza poter entrare nel merito della correttezza dei calcoli se non tramite test empirici. Questo è il modo in cui vengono costruti i ponti che attraversiamo e gli aerei su cui voliamo.

Sono decenni che ci appoggiamo alla macchine digitali delegando loro tantissimo. L'IA è soltanto la nuova forma di tutto ciò.
Tutto abbastanza giusto, ma sbagli quando dici che non generalizzano. E' proprio questa loro capacita' a renderli cosi' utili.

Se non generalizzassero non potrebbero scrivere sw, perche' i possibili programmi sono infiniti, e ovviamente e' impossibile farglieli memorizzare tutti.
  • d_phatt
  • Membro: Guru
  • Risp: 5362
  • Loc: Perugia
  • Thanks: 1158  

14-04-26 12.53

PandaR1 ha scritto:
Se non generalizzassero non potrebbero scrivere sw, perche' i possibili programmi sono infiniti, e ovviamente e' impossibile farglieli memorizzare tutti.

Certo, ma qualsiasi programma può generare cose che prima non esistevano. I blocchi di codice (o anche interi script) generati da IA vengono comunque generati in base a valutazioni probabilistiche, esattamente come il linguaggio naturale in cui si esprimono gli LLM quando li interroghiamo.

Altra considerazione, fondamentalmente un umano può (non è detto che lo faccia o che riesca a farlo, ma può farlo) correggersi da solo, una IA se ti genera un blocco di codice non totalmente esatto non se ne "accorge" finché non glielo dici tu.