sono piuttosto prolisso, come si sarò notato.
comunque veramente mi piacerebbe che qualcuno effettivamente ferrato spiegasse per bene la questione.
io non ho grandi basi teoriche ma ci ragiono sopra, e aggiungo anche un'altra cosa:
quando si parla di "velocità" della connessione, si indica la quantità di bit/sec che questa è in grado di portare, ma questa non è una misura di spazio, e quindi neanche di tempo. significa solo che in u secondo la connessione è un grado di sopportare il passaggio di tot dati
quanto tempo ci mettono questi dati a passare da un estremo all'altro del cavo, è un dato diverso: questo sì potrebbe generare latenza, perchè stiamo parlando di tempo, non di quantità di dati.
essenzialmente questi dati sono elettroni, quindi la velocità di trasmissione lungo il cavo è paragonabile a quella della corrente elettrica (ho letto un pò in giro e chi sa mi corregga, ma si dovrebbe avvicinare alla metà o quasi della velocità della luce, ci sono un sacco ci variabili), quindi se il cavo è lungo un metro o 5, non cambia molto all'atto pratico. significa solo che ai convertitori arrivano, nello stesso lasso di tempo nemmeno misurabile, 12mbit o 480.
arrivati alla scheda, questi dati, scomposti in pacchetti, vengono processati ad una velocità che è incomparabilmente inferiore dai convertitori e quindi si mettono in coda, a pacchetti, in attesa del loro turno. come viene gestito il flusso dei pacchetti attraverso i convertitori viene stabilito dai drivers della scheda, che decidono quando inviare cosa a chi (ci sono più convertitori e quindi i pacchetti vanno indirizzati) questo tipo di istruzione, se scritto male, genera latenza.
ho preso spunto dalla discussione per dare una veste (per me) razionale a cose che sapevo ma non mi sono mai dato la pena di descrivere, però vorrei davvero che qualcuno, dotato di basi più solide delle mie, aggiungesse le sue considerazioni
Edited 30 Lug. 2010 9:21