14-04-26 12.32
PandaR1 ha scritto:
Se io chiedo a chat gpt quanto fa 148675 * 12,78 lui mi da la risposta giusta.
Ma dubito fortemente che nel suo training set ci fosse esattamente quella moltiplicazione con il risultato.
La rete ha quindi capacita' di generalizzazione.
Un programma normale non generalizza, fa esattamente quello per cui e' stato programmato.
Mah, credo che in questi caso sia semplicemente addestrata a riconoscere una operazione aritmetica e a interrogare quindi una calcolatrice (o semplicemente un suo modulo dedicato al calcolo) e a inoltrarne il risultato.
Di base i LLM non fanno altro che calcolare qual è la prossima parola con la maggiore probabilità di comparire, in base all'algoritmo presente e ai dati di training. Dopodiché in alcuni casi questa idea di base viene integrata con altri algoritmi specializzati che vengono attivati in casi specifici nei loro domini di utilizzo, oppure con algoritmi di valutazione di "secondo livello" che sono quelli che realmente possono avvicinare quelle IA a una vera idea di comprensione e intelligenza, ma siamo ancora lontani. Per il resto è solo "probabilità della prossima parola in base ai dati che ho (che potrebbero essere sbagliati, incompleti, o datati)" . Non hanno comprensione di ciò che fanno, e quindi non generalizzano né astraggono - anche se possono dare l'idea di farlo. Infatti possono generare le cosiddette allucinazioni, cioè dare informazioni errate con la massima "convinzione".
Software che sbalordivano per i risultati ottenuti sono sempre esistiti. Dimostratori automatici di teoremi (banali), software scacchistici che battono i maggiori campioni mondiali, e soprattutto:
- Wolfram Mathematica (oggi accompagnato da Wolfram Alpha);
- Simulatori con modelli a elementi finiti per la progettazione meccanica e strutturale come SolidWorks e derivati;
- Simulatori per i calcoli aerodinamici e via dicendo.
Da decenni gli ingegneri si appoggiano a questi software che internamente risolvono e/o approssimano per via simbolica o numerica complessisimi integrali ed equazioni differenziali (magari alle derivate parziali), spesso senza poter avere la più remota idea di ciò che realmente accade, matematicamente parlando, e quindi senza poter entrare nel merito della correttezza dei calcoli se non tramite test empirici. Questo è il modo in cui vengono costruti i ponti che attraversiamo e gli aerei su cui voliamo.
Sono decenni che ci appoggiamo alla macchine digitali delegando loro tantissimo. L'IA è soltanto la nuova forma di tutto ciò.