Hm, in diesem Fall entsteht der Jitter anders:
Der SPDIF-Port wird ja immer mit dem 128fachen der Sample-Rate getaktet (egal ob da nun AC3-Bitstreams oder PCM übertragen wird).
Nun arbeitet der Chip intern, im Audiodekoder, nicht mit dieser Taktrate, sondern mit einer anderen, z.b. von den 27MHz abgeleiteten. D.h. jede 1/27Mio'stel Sekunde kann ein Wert (0 oder 1) am Ausgang ausgegeben werden, aber halt nicht dazwischen. D.h. egal wie man sich anstrengt - mit dem 27MHz-Raster wird man das 3.072MHz-Raster (128*48kHz/2) nie genau treffen, sondern in jedem Bit immer mit bis zu 1/27MHz (=37ns) Versatz. Entweder ist man zu früh, oder zu spät - im Mittel stimmt die Frequenz natürlich, aber die 37ns (geteilt durch 2) sind genau der Versatz zur Idealmitte, der eben den Jitter ausmacht.
Wie gesagt, Norm sind 40ns ("peak-peak"). Da einige Receiver den durch den SPDIF-Takt vorgegebenen Takt benutzen, um ihre DACs zu betreiben, ohne den Takt vorher ordentlich zu "reinigen" (=PLL o.ä.), kann durch einen extremen Jitter die Audioqualität sinken. Ich denke aber, dass das heutzutage kein Problem mehr darstellt, da ohnehin überall ein DSP dazwischen ist, und der Takt direkt garnicht mehr verwendet wird - und bei AC3 etc. sowieso nicht.
Problematischer ist, wenn die Taktrückgewinnung nicht mehr mitkommt - und das scheint bei den o.g. AV-Receivern das Problem zu sein.