Dubbio su console a 48kHz

  • barbetta57
  • Membro: Guru
  • Risp: 6751
  • Loc: Padova
  • Thanks: 721  

30-04-14 15.31

mima85 ha scritto:
Però, dato che a parità di lunghezza dello spezzone audio si hanno il doppio di campioni (96'000 contro 48'000), quando si farà il time streching l'approssimazione dovuta all'interpolazione sarà minore.

A parte che dipende anche dal tipo di time streching voluto. Spesso va corretta la velocità di esecuzione ma le note devono rimanere le stesse, quindi in questo caso non si può fare time streching semplicemente aggiungendo o togliendo campioni ricavando quelli mancanti per interpolazione, perché così facendo allunghi od accorci l'onda (in base a se stai rallentando o velocizzando lo spezzone) analogamente al tirare o schiacciare una molla, di conseguenza saranno influenzate anche le intonazioni di strumenti, voci, ecc... In questo caso l'algoritmo di time streching tira fuori Fourier e lavora proprio sullo spettro del segnale, e qui più definizione hai nel segnale originale più preciso è il risultato.

resta il fatto che ci saranno 96.000 interpolazioni invece di 44000, e di conseguenza l'errore, sia pur minimo per la distanza ridotta tra un punto e l'altro, sarà comunque 2,5 volte più numeroso
non so francamente se la cosa possa risultare apprezzabile o no, però posso fare delle prove
  • mima85
  • Membro: Supporter
  • Risp: 12859
  • Loc: Como
  • Thanks: 1605  

30-04-14 15.39

Blueaphex1976 ha scritto:
Questa tecnologia, denominata direct stream digital, elude tutto il processo di interpolazione (e distruzione)


Non proprio. La "Direct Stream Digital" non è altro che uno dei diversi modi esistenti di codificare in digitale un segnale audio (un altro metodo molto comune è il PCM), ma proprio perché di digitalizzazione si tratta una certa perdita di informazioni c'è sempre.

Resta il fatto che il nostro orecchio non è quello di Superman, di conseguenza oltre un certo livello le perdite e le distorsioni introdotte dalla codifica digitale non vengono percepite, e la Direct Stream Digital, modulando in PWM un'onda quadra portante di appunto 5.6 MHz in base al segnale analogico da campionare (in pratica più o meno secondo lo stesso principio della modulazione di frequenza), sposta molto in avanti questo livello.

Con la PCM questo si ottiene appunto elevando frequenza di campionamento e bit di profondità, e credo che a 96 KHz su 24 bit, sempre presupposta la buona qualità dell'impianto e della registrazione e se gli vengono applicate certe equalizzazioni (per esempio quella tipica del vinile di cui sopra), non ci sia orecchio umano capace di capire se il segnale arriva da una sorgente digitale oppure analogica. Probabilmente nemmeno a 48 KHz su 24 bit. A 16 bit forse qualcuno potrà distinguere una minima perdita di dinamica, ma stiamo parlando di ascolto da parte di persone con orecchio molto allenato, su impianti di qualità molto alta ed in condizioni ambientali ottimali.
  • mima85
  • Membro: Supporter
  • Risp: 12859
  • Loc: Como
  • Thanks: 1605  

30-04-14 15.42

barbetta57 ha scritto:
resta il fatto che ci saranno 96.000 interpolazioni invece di 44000, e di conseguenza l'errore, sia pur minimo per la distanza ridotta tra un punto e l'altro, sarà comunque 2,5 volte più numeroso


La distanza ridotta tra un punto e l'altro contribuisce proprio a ridurre questo errore (o meglio questa approssimazione).

Non è una pura questione numerica di quanti campioni interpolati ci sono, ma di quanto questi possano avvicinarsi nell'approssimazione del segnale originale. E più campioni "originali" ci sono, più quelli interpolati potranno essere calcolati in modo preciso.
  • barbetta57
  • Membro: Guru
  • Risp: 6751
  • Loc: Padova
  • Thanks: 721  

30-04-14 15.50

è un dialogo tra sordi, e abbiamo anche ragione tutti e due; fattostà che a fronte di 96.000 approssimazioni e arrotondamenti dopo la virgola, ce ne saranno 44.000, sia pure più ampie. però, dato che queste approssimazioni si verificheranno dopo il decimale n, dubito che il risultato sia in qualche modo comparabile. in ogni caso, per mia cultura personale, provvederò a fare una piccola prova sul campo.
  • Blueaphex1976
  • Membro: Senior
  • Risp: 584
  • Loc: Ancona
  • Thanks: 53  

30-04-14 16.25

Riprendendo il discorso della DSD, è comunque indicativo che in questa tecnologia si usi un solo bit di risoluzione invece che 24. Insomma, nel campionamento classico,parlando di tecnologia pcm, si deve tenere conto dell'aliasing, l'interpolazione, la decimazione e così via...
Quando campioni una sorgente con le frequenze di 2,8 o 5,6 MHz utilizzando un solo bit di definizione, tutto il segnale è contenuto in un unico blocco (o bit) senza la necessità di mappare il suono in più punti.
Nelle registrazioni dal vivo, avendo raffrontato con un amico anche un Korg Mr1 con un registratore di altra marca (Tascam) la differenza è abbastanza evidente.
L'unico svantaggio della tecnologia DSD è che non esistono sul mercato, a parte la Sony che ci aveva provato con il super audio cd (SACD) , dei riproduttori nel settore consumer.
Quello che registri, se vuoi riascoltarlo pari pari, lo riascolti con lo stesso dispositivo con il quale hai effettuato la registrazione.
  • anonimo

30-04-14 16.36

grazie ancora, dal basso della mia ignoranza trovo tutti gli interventi interessantissimi
Edited 30 Apr. 2014 14:37
  • barbetta57
  • Membro: Guru
  • Risp: 6751
  • Loc: Padova
  • Thanks: 721  

30-04-14 17.12

ed ecco la provetta; ho ponzato un pò per cercare di fare una cosa oggettiva, e quindi ho pensato di generare un file mono a 44.100, 16 bit (un la440 Hz) di 1 sec. con il generatore di Wavelab 8. poi ne ho fatto un altro, questa volta a 96 Khz. ho pensato che una sinusoide non dovrebbe essere tanto difficile da stretchare.
a test fatto, mi è venuto poi in mente che, in effetti, potrebbe esserci una intermodulazione dovuta al fatto che i files sono stati generati ovviamente a 0 dB, ma ditemi se sbaglio.
li ho stretchati entrambi a 2 secondi con il miglior algoritmo disponibile su wlab
a voi il commento (prima il file normale poi quello stretchato). non ho idea cosa soundcloud possa fare alle waveforms (io le ho caricare in formato non compresso, ma dubito che siano rimaste così), in ogni modo se qualcuno vuole gli originali glieli mando
44.100
96 Khz
ci saranno sicuramente dei punti deboli nel mio ragionamento ma, dato che sono parte in causa, io non li vedo emo
  • vin_roma
  • Membro: Supporter
  • Risp: 9363
  • Loc: Roma
  • Thanks: 1222  

30-04-14 17.20

a 96 ha cambiato la forma d' onda!

perlomeno a me qui risulta così
.
  • orange1978
  • Membro: Supporter
  • Risp: 11437
  • Loc: Milano
  • Thanks: 896  

30-04-14 17.20

Scusate ma la storia che a 96 khz o 192 si hanno piu errore in caso di stretching é una MINCHIATA.

se io registro a 192 ho 4 volte piu campioni cio significa che il mio file in caso di stretching ha 4 volte piu dati dai quale poter scegliere cosa scartare oppure no.

é chiaro che lo stretching si usa sopratutto per velocizzare che per rallentare! emo

applicazione piu nota? in studio si registra a metá velocitá e poi si accelera per far suonare da big chitarristi incapaci con precisione altissima, mentre con midi il problema non si pone con l'audio si.

allora grazie ai 192 khz io posso far registrare la batteria a 112 bpm e poi portarla a 140 senza perdite, cosi come posso rallentare in real time il tutto mentre registro il basso, e poi riportarlo alla velocitá naturale senza problemi.

penso che in studio la maggiore utilitá di pro tool hd192 era questa, e lo é tuttora....peró registrare a quelle risoluzioni una band intera la vedo dura se non si hanno schede dsp, per questo trovo la domanda fin dall'inizio assurda.

qualcuno suggeriva un trucco....ossia registrare a 192 batteria, basso, chitarre ritmiche e voci....e poi convertire tutto a 48 Khz (che non comporta perdite udibili), e poi mixare a 48 Khz....questo perché senza un paio di schede UAD 2 octa o una HDX core, la vedo dura fare un mix a 192 khz....ogni traccia pesa sull'hard disc ben 4 volte di piu.

un trucco (che ho sperimentato e funziona benissimo ma é sbattimento assurdo), registri a 96 la batteria, editi, correggi....poi premixi su due tracce stereo e fai il basso.....editi, correggi, premixi....fino alle voci comprese!

poi alla fine ovviamente riconverti tutto a 48 khz partendo da tracce separate on origine e avrai le tue 48/96 tracce audio a 48 khz completamente separate (quando premixi tieni sempre le originali, solo x comoditá altrimenti arriveresti alle voci con 48 tracce a 96 khz....progetto pesantissimo).

infine quando hai tutto di nuovo separato mixi a 48 Khz.....la qualitá non ha perdite uditive grosse anzi....peró nelle fasi critiche OSSIA EDITING della batteria, basso etc...in cui si puo lavorare molto di stretching etc....hai una risoluzione migliore.
  • mima85
  • Membro: Supporter
  • Risp: 12859
  • Loc: Como
  • Thanks: 1605  

30-04-14 17.31

barbetta57 ha scritto:
ed ecco la provetta


Stasera con calma quando sono a casa guardo, son curioso di vedere cos'è saltato fuori.

30-04-14 17.37

Mi introduco nella discussione per rimandarvi ad un post EPICO di gearslutz, in cui interviene nientepopodimenoche BOB KATZ. Si trattano proprio questi punti, ed altri!
qui
  • vin_roma
  • Membro: Supporter
  • Risp: 9363
  • Loc: Roma
  • Thanks: 1222  

30-04-14 17.42

barbetta, la seconda parte a 96 è fuori portata, è in distorsione.
Edited 30 Apr. 2014 15:52
  • barbetta57
  • Membro: Guru
  • Risp: 6751
  • Loc: Padova
  • Thanks: 721  

30-04-14 18.06

è appunto quello che mi è venuto da pensare quando l'ho sentita; per questo pensavo all'intermodulazione, avendo generato due files a 0 dB, fattostà che sul 44 non succede, e sul 96 c'è un'armonica ben definita. la prova l'ho fatta 2 volte
  • barbetta57
  • Membro: Guru
  • Risp: 6751
  • Loc: Padova
  • Thanks: 721  

30-04-14 18.09

quello che non mi trova assolutamente d'accordo sul ragionamento comune è che ci sia il doppio di campioni su cui scegliere. è vero che ci sono più campioni, ma ce ne sono anche di più da togliere o mettere. ogni tolta o messa è un calcolo, ed ogni calcolo ha una virgola.
  • mima85
  • Membro: Supporter
  • Risp: 12859
  • Loc: Como
  • Thanks: 1605  

30-04-14 18.15

@Barbetta: ho guardato velocemente le tue registrazioni: nel file a 96 KHz, la parte stretchata distorce, va proprio in clipping. Si vede chiaramente che i bordi superiore ed inferiore della sinusoide sono tagliati. È per quello che oltre alla sinusoide pura ci sono altre armoniche, non è per colpa dell'interpolazione.

Riprova a fare l'esperimento a volumi più bassi, mi sa che a 96 KHz l'algoritmo di stretching che stai usando per qualche motivo aumenta l'ampiezza del segnale. Eventualmente prova anche con altri algoritmi di time-stretching, se il programma ne ha diversi, per vedere se anche gli altri esibiscono questo comportamento.
Edited 30 Apr. 2014 16:20
  • barbetta57
  • Membro: Guru
  • Risp: 6751
  • Loc: Padova
  • Thanks: 721  

30-04-14 18.29

rifatto, infatti; e lo stretching a 96 Khz aggiunge circa 1,5 dB, sia in accelerare che in rallentare
new 44
new 96
differenze qualitative non ne sento
  • vin_roma
  • Membro: Supporter
  • Risp: 9363
  • Loc: Roma
  • Thanks: 1222  

30-04-14 18.51

Io mi son messo pure a contare gli scalini del campionamento sulle sinusoidi... nessuna ripetizione, ci stanno tutti, al loro posto! Sinusoidi aumentate di numero ma perfettamente con la stessa evoluzione!
  • barbetta57
  • Membro: Guru
  • Risp: 6751
  • Loc: Padova
  • Thanks: 721  

30-04-14 19.02

la cosa accade, in misure diversa a seconda degli algoritmi, anche su files complessi (brano completo), con differenze in più o meno anche di 2 dB. sui 44 invece nulla, qualche centesimo.
  • mima85
  • Membro: Supporter
  • Risp: 12859
  • Loc: Como
  • Thanks: 1605  

30-04-14 19.24

barbetta57 ha scritto:
rifatto, infatti; e lo stretching a 96 Khz aggiunge circa 1,5 dB, sia in accelerare che in rallentare


Uhmm... che strano, e solo a 96 KHz per giunta. Come si chiama l'algoritmo che hai usato? Vorrei vedere se ne parlano pure da qualche altra parte di questo effetto collaterale, magari salta fuori che per come è fatto l'algoritmo è normale.

barbetta57 ha scritto:
differenze qualitative non ne sento


No bom quelle di fatto non ci sono, anche perché la sinusoide che hai generato è parecchio sotto il limite massimo di frequenza campionabile. E poi è solo una sinusoide, quindi è di una facilità estrema da trattare per l'algoritmo. Differenze di qualità non ci sarebbero state nemmeno a 22'050 Hz di campionamento col segnale che hai generato.

Tralasciando il discorso time stretching, le frequenze più critiche quando si fa un downsampling sono quelle più vicine alla frequenza massima campionabile, quelle che stanno sotto non danno particolari problemi.
Edited 30 Apr. 2014 17:26
  • barbetta57
  • Membro: Guru
  • Risp: 6751
  • Loc: Padova
  • Thanks: 721  

30-04-14 20.04

tutti gli algoritmi di wavelab 8. vedrò, con un pò di tempo, di fare delle prove con dei files a 96 per gli eventuali artefatti