Nord lead 4

ivanzajic 02-05-13 01.32
mima85 ha scritto:
erché lo fanno? Probabilmente questione di contenimento di costi. Dal punto di vista dello sviluppo del codice ci vuole meno sforzo a fare un oscillatore basato su lookup table che a farne uno calcolato in tempo reale. E quando non ci si basa su lookup table forse gli algoritmi vengono semplificati.

Ma se quello in tempo reale lo hanno già sviluppato, la sua implementazione non dovrebbe avere costo nullo?
Possibile che dopo 12 -13 anni i dsp non abbiano una potenza tale da gestire il codice di 12anni prima con un aumento di polifonia e qualche funzione in piu ad un costo magari piu contenuto?
Edited 1 Mag. 2013 23:35
Spirit 02-05-13 01.49
ivanzajic ha scritto:
Possibile che dopo 12 -13 anni i dsp non abbiano una potenza tale da gestire il codice di 12anni prima con un aumento di polifonia e qualche funzione in piu ad un costo magari piu contenuto?


A mio giudizio uno dei più grandi difetti dei giapponesi in generale è che sono sempre proiettati a ricercare la novità o delle variazioni laddove gli europei si occupano di migliorare o perfezionare quello che è già stato prodotto e che ha successo.
zavaton 02-05-13 02.07
@ Spirit
ivanzajic ha scritto:
Possibile che dopo 12 -13 anni i dsp non abbiano una potenza tale da gestire il codice di 12anni prima con un aumento di polifonia e qualche funzione in piu ad un costo magari piu contenuto?


A mio giudizio uno dei più grandi difetti dei giapponesi in generale è che sono sempre proiettati a ricercare la novità o delle variazioni laddove gli europei si occupano di migliorare o perfezionare quello che è già stato prodotto e che ha successo.
Non hai tutti i torti però anche gli europei tendono a scantinare ogni tanto... vedi nord modular emo

Platipo 02-05-13 03.19
orange1978 ha scritto:
Se proibissero di pubblicare brani con massive,sylenth, e tutta quella pattumiera di plug ins,

ma il problema secondo te sono i plugin?
Puoi prendere sylenth o Massive e farci della roba bella dinamica e aperta, chiaro che se comprimi e saturi ripetutamente ogni traccia, non usi la velocity MAI, poi comprimi tutto il master, ci metti un harmonic exciter, e con un limiter schiacchi tutto a una RMS di -4 db, difficile suonino aperti e dinamici. Il problema ribadisco non sono gli stumenti, sono la produzione e la tentazione data dal dilemma della loudness.
orange1978 02-05-13 03.41
@ ivanzajic
mima85 ha scritto:
erché lo fanno? Probabilmente questione di contenimento di costi. Dal punto di vista dello sviluppo del codice ci vuole meno sforzo a fare un oscillatore basato su lookup table che a farne uno calcolato in tempo reale. E quando non ci si basa su lookup table forse gli algoritmi vengono semplificati.

Ma se quello in tempo reale lo hanno già sviluppato, la sua implementazione non dovrebbe avere costo nullo?
Possibile che dopo 12 -13 anni i dsp non abbiano una potenza tale da gestire il codice di 12anni prima con un aumento di polifonia e qualche funzione in piu ad un costo magari piu contenuto?
Edited 1 Mag. 2013 23:35
ecco appunto, è quello che mi chiedo anche io, se il progetto esiste gia, non basterebbe convertire il codice per girare su dei nuovi DSP piu potenti? è assurdo che con processori sempre piu veloci, e questo è un dato di fatto, si facciano piu cose ma meno bene, piuttosto meno polifonia ma bel suono.

io cmq il suono del JP8080 in effetti non l'ho mai piu ritrovato nemmeno sul vsynth, suona bene, suona diverso, ma non come il jp, per non parlare della sh201 o del gaia.
mima85 02-05-13 10.49
ivanzajic ha scritto:
Ma se quello in tempo reale lo hanno già sviluppato, la sua implementazione non dovrebbe avere costo nullo?
Possibile che dopo 12 -13 anni i dsp non abbiano una potenza tale da gestire il codice di 12anni prima con un aumento di polifonia e qualche funzione in piu ad un costo magari piu contenuto?


Eh vai a capire... per saperlo bisognerebbe lavorare per Roland o perlomeno avere il codice sottomano.

C'è però da dire che, parlando di strumenti come SH-32/201 o Gaia, contestualmente ad un aumento di polifonia e/o funzionalità dello strumento, c'è anche una pesante riduzione del costo. Il JP-8000 costava caro quando è uscito, mentre gli SH digitali ed il Gaia sono macchine economiche, quindi da qualche parte hanno dovuto risparmiare sulla componentistica, e probabilmente hanno messo un DSP economico e con non 'sto granché di potenza. Di conseguenza dove hanno potuto semplificare il codice l'avranno fatto, per sopperire ai limiti del DSP economico.

O magari sono anche scelte di marketing, nel senso che fanno synth che suonano così così per non andare ad intaccare la fascia alta dei loro strumenti, composta dal solo V-Synth prima e da V-Synth e Jupiter adesso. Che anche se sono macchine che offrono molto di più del solo VA probabilmente Roland vuole comunque mantenerle una spanna sopra anche dal punto di vista del VA.

Sono tutte teorie, ripeto per sapere la verità e capire cosa gli passa per la testa l'unica è lavorare per Roland.
Edited 2 Mag. 2013 9:02
mima85 02-05-13 10.51
SMARTKID ha scritto:
Complimenti mima, nessuno più di te merita di "stare" in un forum tecnico come questo a pieno diritto.

Saluti dal tuo opposto

emo


Nah, non sono certo un utente che merita di stare nel tecnico più di altri. Grazie comunque per l'apprezzamento emo
mima85 02-05-13 11.14
orange1978 ha scritto:
io cmq il suono del JP8080 in effetti non l'ho mai piu ritrovato nemmeno sul vsynth, suona bene, suona diverso, ma non come il jp, per non parlare della sh201 o del gaia.


Magari nel fare il V-Synth hanno voluto rifinire gli algoritmi degli oscillatori, o hanno riscritto il programma di questi per far si che alcune parti del codice possano essere condivise e riutilizzate da altri elementi del motore di sintesi, di conseguenza hanno dovuto essere riadattate. La scrittura di codice condiviso e riutilizzabile è una delle "best practice" da adottare quando si sviluppa un qualsiasi tipo di programma.

Però ripeto, siamo sempre nel campo delle supposizioni.
orange1978 02-05-13 18.07
Sul fatto del costo secondo me mima sono tutta cazzate, ok costa meno il gaia, ma si tratta di COMPUTER, un gaia é un computer come lo sono il jp8080 o la z1.....allora sono passati piu di 10 anni, ponendo il caso che volessero ridurre I costi, un computer che ha 10 anni in meno normalmente non puo non essere in grado di fare quello che faceva il vecchio! Cristo santo tra amiga e c64 xi sono solo tre o quattro anni e cé un abisso....e infatti se prendi gia amiga 1200 o un 386 rispetto a un c64 non cé paragone come prestazioni.

Io dubito insomma che oggi non puoi costruire un hardware che sia piu veloce del jp8000, suoni allo stesso modo e costi di meno, perché non parliamo di microfoni o pre, o synth analogici discreti dove il costo dei componenti puo addirittura peggirare, dicono che oggi se volessero rifare un p5 o un arp,usando esattamente la stessa tipologia costruttiva, il costo sarwbbe piu alto che l'originale!
Ma gaia, sh201 etc.....sono basati su dsp,e un dsp dopo 10 anni non vale piu una cippa, e cmq ci sarebbe uno nuovo che fa le stesse cose 10 volte piu velocemente.....o sbaglio?

E infatti chi rimpiange un vecchio computer? io rimpiango amiga e c64 ma per ragioni estetiche ed affettive, basta che mi diano un emulatore per giocarci e divertirmi a programmare e sono a posto ma non cambierei mai dal punto di vista pratico il mio mac book pro con logic e cubase con un amiga e mastetrack pro.....e nemmeno con il vecchio mac g4 dual 1ghz con cui lavoravo prima, o con il g4 450.....invece é assurdo che con jp e gaia uno sia qui a rimpiangere win98 e il pentium 300 mhz.
anumj 02-05-13 18.44
orange1978 ha scritto:
Sul fatto del costo secondo me mima sono tutta cazzate, ok costa meno il gaia, ma si tratta di COMPUTER, un gaia é un computer come lo sono il jp8080 o la z1.....


Secondo me, utilizzare la tecnologia corrente, non necessariamente corrisponde ad una omologazione dei prodotti.

I primi sintetizzatori erano a valvole come i computer, ma non possono essere definiti tali.
Stesso discorso quando dalle valvole si passò ai transistor e ai circuiti integrati.

Altrimenti sarebbe come dire che in fondo una motosega è come una motocicletta perchè usa un motore a scoppio. E' altrettanto errato definire i sintetizzatori come "computer dedicati", beh allora permettetemi di dire che oggi sono tutti computer dedicati, dove c'è una cpu e un software che gira.... la tv, l'automobile, il telefonino, la lavatrice, il condizionatore, etc...

Un prophet 5 era qualcosa di ben diverso da un PC IBM dei primi anni 80. Cosi come non credo che uno Z1, un JP8000 siano paragonabili ad un PC con dentro windows 95.

Certo, questa differenza nel tempo si è assottigliata, e cio è dovuto a 2 fondamentali ragioni :

1) il computer si è evoluto al punto di poter essere considerato come alternativa allo strumento elettronico inteso in senso 'classico' ed è in grado di fare quello che fa una tastiera multitimbrica (c.d. workstation).

2) il sintetizzatore, pur utilizzando la tecnologia corrente, non è stato in grado di evolversi con la stessa velocità dei pc. anzi direi che è in fase involutiva, cioè cerca nelle sue radici la propria identità, invece di puntare al futuro e all'innovazione vera.
mima85 02-05-13 18.44
Orange come ho già detto sono teorie, non lavoro per Roland ne tantomeno ho il codice dei loro synth sotto mano. Se l'avessi, o se lavorassi per Roland, ti saprei dare una risposta certa. Viceversa sono costretto a sparar cazzate.

Tecnicamente è certamente fattibile fare un synth che costi meno ma suoni meglio di un JP-8000. Il perché non lo fanno sono convinto sia legato a ragioni di marketing, ovvero la classica mossa del "buttiamo fuori un synth che fa più cose di quello vecchio e chissenefrega se le fa peggio, che costi molto di meno, e che ci faccia guadagnare una vagonata di soldi".

In quest'ottica non la vedo nemmeno così cazzata la teoria che Roland abbia usato un DSP di merda (leggi: più economico possibile) per gestire 64 voci di polifonia con compromessi a destra e a sinistra sulla qualità del suono. Non dimentichiamoci che questo DSP di merda deve gestire un carico computazionale che, se fosse stato mantenuto inalterato o quasi il codice del JP-8000, sarebbe stato circa 8 volte superiore rispetto al VA del 1997.

Tra l'altro, nel JP-8000 ci sono 4 DSP e non uno, come ho potuto appurare aprendo il mio e come si può vedere qui. Per il Gaia, se dal punto di vista della componentistica le cose stanno come sono nell'SH-201, che ho aperto pure lui e come si può vedere qui, di DSP ce ne sono 2. Chissà, nel Gaia magari ce n'è addirittura uno solo.

Un DSP scacato di oggi è sicuramente più potente rispetto ad un singolo DSP di quelli usati nel JP-8000, forse anche di tutti e 4 messi insieme, e può reggere da solo il carico per cui ai tempi erano necessari appunto 4 processori. Ma se vogliamo elevare al quadrato la polifonia del synth, come hanno fatto col Gaia, per di più dando la possibilità di avere 3 filtri + 3 EG a voce (= ancora più calcoli da fare), ma mantenendo sempre il DSP scacato (o il paio di DSP scacati) che costa 4 soldi, da qualche parte dobbiamo intervenire per snellire il lavoro a quel povero chip, altrimenti tra glitch e ritardi lo strumento diventa inutilizzabile. Di conseguenza dove si possono semplificare codice ed algoritmi si semplifica, purtroppo anche a costo della qualità.

Forse sarebbe stato sufficiente un DSP dal costo di 5-10$ superiore per avere un Gaia da 64 voci di polifonia con la qualità timbrica della sintesi del JP-8000, senza compromessi idioti come il sync che mette il synth in mono, e che costi comunque di meno rispetto al suo antenato. Ma purtroppo allo stato attuale rimangono sogni, mentre nella realtà Roland ha preferito la strada del minima spesa massima resa.

A me non sembra così improbabile come teoria. D'altronde, come dico sempre, quando sono i reparti marketing ad avere la meglio sulle decisioni dei progettisti, i quali magari vorrebbero fare le cose con un po' più di criterio (e ad anni 2000 inoltrati un synth che va in mono quando si accende il sync non è solo una cosa scriteriata, ma una presa per il culo), queste sono le conseguenze.
Edited 2 Mag. 2013 17:39
mima85 02-05-13 18.47
anumj ha scritto:
E' altrettanto errato definire i sintetizzatori come "computer dedicati", beh allora permettetemi di dire che oggi sono tutti computer dedicati, dove c'è una cpu e un software che gira.... la tv, l'automobile, il telefonino, la lavatrice, il condizionatore, etc...


Di fatto lo sono, la tua affermazione è corretta. Si chiamano sistemi embedded, la cui definizione è appunto "computer dedicato ad uno scopo specifico", e sono computer in tutto e per tutto. Tecnologicamente la differenza che passa tra la centralina di un'auto ed un sintetizzatore digitale è molto sottile.

Per fare un esempio, Motif non è altro che un sistema embedded fatto con hardware generico (non con l'architettura x86 dei PC però, contrariamente a quanto accade per esempio in Kronos) su cui gira Linux Montavista come sistema operativo.

Questi però appunto non sono Personal Computer, ovvero gli scatoloni (portatili o meno) su cui gira Windows, Mac OS o Linux Ubuntu e su cui possiamo vedere i pornazzi (ed eventualmente impestarli di virus). Sono solo alcune delle tante forme che un computer può avere.

Il tutto visto da un punto di vista squisitamente tecnico. Per il resto, uno strumento musicale resta uno strumento musicale, anche se dentro c'è un computer che fa girare del codice software anche solo per generare una semplice dente di sega.
Edited 2 Mag. 2013 17:46
anumj 02-05-13 19.59
mima85 ha scritto:
Di fatto lo sono, la tua affermazione è corretta. Si chiamano sistemi embedded, la cui definizione è appunto "computer dedicato ad uno scopo specifico", e sono computer in tutto e per tutto.


Se adotto il tuo ragionamento, anche il computer è, paradossalmente, un "computer dedicato ad uno scopo specifico". Lo scopo lo scegli tu installando il software che ritieni opportuno.

Ripeto non condivido il punto di vista tecnico. Non si puo' dire che una scimmia è un essere umano in tutto e per tutto solo perchè è un mammifero dai pollici opponibili.

Si prende atto dei punti comuni, delle origini comuni, ma accomunare tutto in un'unica definizione lo trovo altamente riduttivo.

Io sono un primitivo, guardo l'oggetto e valuto a cosa mi puo' servire. Se ho davanti un OB-8, che è qualcosa di diverso da un computer, sia materialmente che concettualmente.

Sul fatto che ci siano oggi molti PC camuffati da tastiera, sono daccordo. E credo che sia una cosa molto triste, una sorta di resa incondizionata del synth rispetto al computer. E' una fase di intersezione tra le due categorie (pc/synth) che si risolverà a breve.

Se ci pensate, partiamo dai vecchi C64 o dai processori sonori di Amiga, i vecchi soundtracker, divertenti ma nulla di lontanamente paragonabile ad un mc500 e un D50 o un S900. Oggi siamo arrivati ad un punto in cui il PC supera in possibilità qualsiasi workstation. Ma secondo me non siamo ancora in una vera fase di sorpasso. La gente continua a comprare le ws e a spendere migliaia di euro pensando di avere sistemi più performanti rispetto al PC. Di fatto chi prende una ws prende soltanto uno strumento ottimizzato, ma non superiore alle attuali possibilità offerte da una vera DAW.
Il sorpasso fatidico sarà domani, quando il PC sarà in grado di offrire un sistema perfettamente autonomo e in grado di interfacciarsi rapidamente con periferiche esterne, senza confiltti o problemi di latenza e qualità audio complessiva. Ma soprattutto a costi molto contenuti.

A quel punto tutto quello che è l'immondezzaio attuale fatto di finte tastiere che dentro hanno software da pc e megaschermi andrà al macero. Il PC sarà lo strumento definitivo per chi vuole una DAW completa e performante, anche facile da trasportare. Niente più Mixx, MOxx, Muxx, Krozz, Kazz... forse li troveremo come i bontempi nei reparti giocattoli al ipercoop.
Solo potentissimi PC già dotati di schede audio di altissima qualità e ottimi software a prezzi popolari.

Il synth in questa fase futura ha un'unica possibilità di sopravvivenza: tornare a riscoprire con occhi nuovi l'era d'oro dell'analogico e restare cosi immune da qualsiasi emulazione software.

Di fatto, a pensarci bene, è cio che in parte sta già accadendo, basta guardare quanti analogici sono nati negli ultimi 5 anni.
mima85 02-05-13 21.07
anumj ha scritto:
Se adotto il tuo ragionamento, anche il computer è, paradossalmente, un "computer dedicato ad uno scopo specifico". Lo scopo lo scegli tu installando il software che ritieni opportuno.


Appunto no, proprio il fatto che io, utente, posso scegliere lo scopo, o meglio gli scopi (perché un PC può averne molteplici) a cui dedicare la macchina installando il software che ritengo opportuno, rende il PC una macchina generica, che nasce di proposito per essere dedicata ai compiti più disparati, e fatta in modo da espletarne diversi contemporaneamente. Un PC può essere impiegato in tantissimi ambiti di utilizzo (per fare musica, per tenere la contabilità, per navigare in Internet, per governare un macchinario meccanico, per produrre altro software, per vedere i soliti porno, ecc...), semplicemente installando e combinando di volta in volta il software necessario, senza apportare altre modifiche alla struttura della macchina o del software che la governa (l'OS).

A fare la differenza tra un PC ed il sistema embedded in un synth digitale è proprio, oltre alle periferiche e le interfacce differenti per ovvie ragioni, la possibilità o meno di intervenire sul corredo software della macchina ed il fatto di poter essere usato con libertà per svolgere le più disparate attività. Su un PC puoi (e puoi fare un sacco di pasticci), su un synth digitale, qualsiasi esso sia, non puoi.

Al di la di tutti i ragionamenti diciamo "filosofici" (con cui mi trovi per la maggior parte d'accordo) e discutendo in termini strettamente tecnici, un synth digitale ed un PC sono entrambi computer. Non è questione di essere d'accordo o meno con questo ragionamento, è che di fatto le cose sono proprio così. Sono entrambi apparecchi che fanno girare del software, che produce in output un risultato.

Che poi un synth digitale oltre ad essere un computer sia uno strumento musicale, fatto per fare quello e basta, è pacifico. Non mi sognerei mai di chiamare "PC" un synth, ma nemmeno di chiamarlo computer. Anche se è un computer, nel senso più basico di macchina che fa girare del software, il modo con cui è fatto e lo scopo per cui serve, lo categorizza come "synth" e basta. Ma come dicevo prima, la differenza tra i vari apparecchi digitali, siano essi PC o strumenti musicali digitali, la fa principalmente il software, oltre a tutto il connubio di periferiche che compongono l'apparecchio e l'interfaccia utente.

Diciamo che qualche anno fa si, la differenza tra uno strumento musicale digitale ed un computer generico era già più marcata. Macchine come il DX-7 o il D-50 hanno al loro interno dei chip custom, progettati allo scopo e fatti per fare solo quello. Ma da quando si sono cominciati ad usare DSP generici questa differenza si è assottigliata.
Edited 2 Mag. 2013 19:47
orange1978 02-05-13 22.57
Io non condivido il non considerare uno z1 o una trinity un computer, sono strumenti musicali elettronici d'accordo, ma sono veri e propri computer.
Non sono un pc, un personal computer é una cosa che metti sulla scrivania, ci carichi il software che ti serve per lavorare, giocare, imparare, ed é tuo, "personal" appunto.

Un synth é sempre una cosa tua personale ma fa solo il synth, non puoi andarci su facebook o giocarci a space invaders ma dal punto di vista tecnico é un computer a tutti gli effetti.

Una k2000 non differiva molto da un 486, all'epoca, aveva un processore, una ram per caricare I dati, una rom cui leggere un sistema operativo e campioni, un monitor (display), un interfaccia scsi per collegarsi a periferiche esterne, e una scheda audio in grado di convertire I dati digitali in analogico, equivale a una soundblaster ma qualitativamente un altro pianeta.....é un computer dai, un computer progettato per fare musica! Infatti non era solo un synth,campionava, registrava 32 tracce midi, aveva effetti digitali.....era la cosa piu vicina alle moderne daw in quella fascia di prezzo, peeché spendendo di piu c'erano i synclavier che credo fossero davvero avanti anni luce, hard disc recording gia negli anni 80.

Il prophet 5 o un ob8 non sono computer in nessun modo perché non elaborano dati digitali, un computer per essere definito tale é una macchina in grado di elaborare solo dati digitali, informazioni numeriche.....puo controllare un synth analogico vedi matrix 1000 o voyager ma non fa parte della catena di sintesi, puo gestire la memoria, interfacciamento con il mondo esterno tipo midi, ma non partecipa alla creazione del suono.....

Nel k2000 il suono viene generato da calcoli matematici a monte, non ci sono oscillatori che producono dalla corrente una vibrazione elettrica, quindi si puo considerare dal punto di vista tecnico il k2000 un computer, dedicato a un preciso task, ma non si puo considerare il k2000 un pc per I motivi che hai detto tu.
anumj 02-05-13 23.03
mima85 ha scritto:
Diciamo che qualche anno fa si, la differenza tra uno strumento musicale digitale ed un computer generico era già più marcata. Macchine come il DX-7 o il D-50 hanno al loro interno dei chip custom, progettati allo scopo e fatti per fare solo quello. Ma da quando si sono cominciati ad usare DSP generici questa differenza si è assottigliata


Si, siamo daccordo.
Ma non è solo una questione di componentistica, perchè come ho già detto, i synth hanno sempre utilizzato le risorse del loro tempo. La differenza la fa l'utilizzo di questi DSP.
Negli 80 con circuiti integrati si facevano tante cose, ma l'innovazione nel settore dei sintetizzatori era che grazie a quegli stessi circuiti integrati si poteva generare un suono epocale.

Oggi coi DSP non si arriva nemmeno a 1 decimo di quei risultati in termini di qualità ed espressività del suono.
Il suono in pratica si è fermato praticamente a 20 anni fa. Con i modelli fisici e gli esperimenti dell'IRCAM si è chiuso il discorso.
I DSP servono adesso solo per garantire e gestire più polifonia, più multitimbricità, più sintesi contemporanee, più memorie... Per il suono vero, quelli come me, come te e altri ancora si devono rivolgere a strumenti non recenti.


orange1978 02-05-13 23.09
si il discorso l'ho capito....é vero oggi di nuovo in realtá non ce nulla, si fa lo stesso ma in quantitá maggiore, ma al 90% dei casi a una qyalitá inferiore....sembra assurdo ma é cosi.

@mima saeebbe bello per chi come te puo decifrarlo (io non sono a quei livelli con l'assembly) poter esaminare il codice di una jp8080 e di un moderno va, e vedere cosa cambia in fondo....sarebbe sorprendente.
mima85 02-05-13 23.19
orange1978 ha scritto:
@mima saeebbe bello per chi come te puo decifrarlo (io non sono a quei livelli con l'assembly) poter esaminare il codice di una jp8080 e di un moderno va, e vedere cosa cambia in fondo....sarebbe sorprendente.


Eh magari ne fossi capace, non ho mai studiato l'assembly. Se il sorgente (ad averlo appunto) fosse in C o comunque in un linguaggio con una sintassi diciamo "leggibile" potrei provare a capirci qualcosa, ma in assembly è per ora fuori dalle mie possibilità. Non sono ancora a quel livello purtroppo.

Chissà, magari un giorno mi verrà la voglia di mettermici dietro all'assembly, perlomeno dietro ad uno dei tanti perché ogni CPU ha il suo set di istruzioni, ma al momento confesso che per queste cose la voglia è molto scarsa, specialmente dopo una giornata passata in ufficio a programmare, o peggio a debuggare e fare manutenzione ai nostri software, oltre a seguire parte dell'assistenza tecnica.

Quando arrivo a casa la sera non ho voglia di vedere manco una riga di codice, piuttosto preferisco cazzeggiare con i synth, anzi a volte mi manca la voglia pure per quello, fai te... emo
Edited 2 Mag. 2013 21:27
mima85 02-05-13 23.22
anumj ha scritto:
Ma non è solo una questione di componentistica, perchè come ho già detto, i synth hanno sempre utilizzato le risorse del loro tempo. La differenza la fa l'utilizzo di questi DSP.


Certamente, dipende da cosa s'inventa chi lo programma. Il DSP è li pronto ad eseguire le istruzioni che gli da il programmatore, il resto dipende dalla creatività (e dalla volontà di fare uno strumento rivoluzionario) di chi sviluppa il synth.
anumj 04-05-13 02.21
@ mima85
anumj ha scritto:
Ma non è solo una questione di componentistica, perchè come ho già detto, i synth hanno sempre utilizzato le risorse del loro tempo. La differenza la fa l'utilizzo di questi DSP.


Certamente, dipende da cosa s'inventa chi lo programma. Il DSP è li pronto ad eseguire le istruzioni che gli da il programmatore, il resto dipende dalla creatività (e dalla volontà di fare uno strumento rivoluzionario) di chi sviluppa il synth.
Il DSP per come è usato adesso non porta da nessuna parte. Non sono un perito elettronico, ma non ci vuole molto a capire una cosa di una semplicità estrema. Non è al servizio del suono reale, ma è solo a servizio dell'emulazione di esso.

Continuano quasi tutti a far finta di nulla, ma quello che succede oggi per i synth non accade per nessun altro pezzo di elettronica sul pianeta.

Avete mai pensato di, che so, comprare un telefunken PAL color del 1980 e di pagarlo magari 5000 euro perchè ha una resa video migliore del vostro LCD da 42"?

Per assurdo è cosi. Se viene un alieno o un gesucristo sul pianeta, ci guarda e pensa che ci siamo fottuti il cervello. E a pensarci bene, non hanno torto.

Ve lo immaginate di utilizzare oggi un DSP, dentro il vostro amato 42", programmato per generare virtualmente l'immagine con la stessa risoluzione, definizione, colore di un PAL dell'80? No eh?

Invece è quello che accade oggi nelle tastiere moderne. Avete tutta sta tecnologia, per cosa? Per imitare qualcosa che non esiste più in commercio da 40 anni! Tutti 'trocati' a invocare questo o quel dio del VA.

I forum che tracimano di thread "Qual'è il VA migliore?" o "Ma tra WYX1n e MINKDUPUP quale compro?".

Avete mai pensato di comprare un PC IBM con processore 8088 del 1981 e pagarlo 6000 euro perchè 'computa' meglio del vostro iMac nuovo nuovo?

Non mi fate dilungare con tostapane, lavatrici, frigo, aspirapolveri, autoradio, mangianastri e mangiadischi...

Il senso se non siete totalmente delle minchie bollite (purtroppo alcuni di voi lo sono) l'avrete capito.

Se oggi tutti o quasi sono concordi nel affermare che un synth analogico sia il non plus ultra del suono...

Se oggi tutti cerchiamo l'emulatore software o hardware di quel synth analogico di 30 anni fa...

Se oggi ci lamentiamo che è tutto finto e tutto suona a cazzo....

Perchè i produttori continuano a fare synth usando i DSP per scimmiottare qualcosa?

Non torna, o sono coglioni loro o siamo coglioni noi. O forse entrambi... e allora ne avrebbe ben donde l'eventuale cristo o alieno che dir si voglia, che arriva sulla terra e dopo aver visto queste follie (e purtroppo non solo queste) decide di mandarci tutti a fare in culo ed annientarci definitivamente.