pl | en

Transmisja dźwięku cyfrowego

Dzień dobry!

Jestem dość regularnym czytelnikiem Pana serwisu, czytuję także inne tytuły audio, głównie w Internecie. Trafiam niejednokrotnie na artykuły dotyczące dźwięku cyfrowego - przetworników D/A, z wejściem SPDIF lub USB.

1. W Pana najnowszym wstępniaku możemy przeczytać:
"Firmy usiłują sobie z tym radzić w różny sposób, najczęściej przetaktowując sygnał w „daku”, upsamplując go itp. I często działa to całkiem przyzwoicie. Niestety re-taktowanie nie jest panaceum na wszystkie problemy, a jedynie wybiegiem."

A dalej (odnośnie urządzenia Halide Design):
"można taktować sygnał zegarem Bridge’a, nie zegarem komputera – praca w trybie „asynchronous”. Oznacza to, że jitter jest zależny jedynie od zegara urządzenia, wtyku oraz – w małym stopniu – dodatkowych bramek logicznych, przez które sygnał musi przejść. "

Przetaktowanie sygnału nie jest panaceum i jest wybiegiem, natomiast urządzenie Halide Design jest wspaniałe bo przetaktowuje sygnał swoim zegarem.

Czy nie dostrzega Pan sprzeczności w tym co Pan napisał?

2. A teraz bardziej ogólnie. Jitter jest problemem pojawiającym się przy przesyłaniu sygnału (polega na wariacjach tempa jego przesyłania). Po odebraniu danych jitter istnieje tylko o tyle, o ile zegar taktujący podawaniem danych do przetwornika sam "pływa" - robi to, jeśli jest odzyskiwany ze strumienia odbieranych danych.

Retaktowanie strumienia danych przez ich buforowanie po stronie odbioru, a następnie wysyłanie do DACa taktowanego tym samym zegarem co bufor powoduje całkowitą eliminację jittera (do poziomu jittera zegara w DAC-u), niezależnie od tego, jaki był on na łączu i niezależnie od tego jakiego typu jest to łącze (SPDIF, USB, czy jakie bądź inne). To nie retaktowanie (z buforem), ale wszystkie inne sposoby eliminacji jittera są półśrodkami!

Dobrze zrobione buforowanie jest niestety stosowane bardzo rzadko, jak sądzę dlatego że producenci urządzeń audio korzystają głównie z gotowych układów z półki (standardowy odbiornik cyfrowy stosowany zgodnie z notą aplikacyjną producenta odbiornika, bez wartości dodanej autora urządzenia audio). Zrobienie buforowania samemu kosztuje i wymaga umiejętności, których większości producentów sprzętu audio zapewne brak.

Retaktowanie z buforem nie jest wcale nowym wynalazkiem w świecie audio. Buforowanie stosuje od zawsze Chord w swoich DAC-ach. Tak samo działają (kiedyś popularne, obecnie już raczej niespotykane) urządzenia do poprawiania jakości sygnału SPDIF typu Genesis Digital Lens. Tak samo (tym razem z konieczności) jest z odtwarzaczami "komputerowymi", pobierającymi dane przez Internet - na przykład Linna.

Buforowanie i retaktowanie danych jest stosowane nawet w przenośnych odtwarzaczach CD (bufor antywstrząsowy)! Stąd spotykane w Internecie opisy zastosowania rozbabranego discmana jako transportu o znakomitej jakości (wystarczy zastąpić zegar w discmanie przez zegar dobrej jakości i wyciągnąć dane z wyjścia bufora), które mogą się wydawać nieprawdopodobne, ale są perfekcyjnie zasadne i wiarygodne od strony technicznej.

I w zasadzie tak samo działają DACe z "asynchronicznym USB"! (protokół używany przez Linna i inne odtwarzacze multimedialne włączane do sieci komputerowej jest w bardzo ogólnym, strukturalnym sensie podobny do "asynchronicznego USB").

3. Problem z tradycyjnym protokołem USB polega wcale nie na tym, że ma on ogromny jitter, ale na tym że w DAC-ach z wejściem USB z reguły regeneruje się sygnał zegara z odbiornika USB i nie stosuje się dalej buforowania z retaktowaniem. Faktycznie, dostępne na rynku odbiorniki USB są bardzo tanie i w związku z tym bardzo kiepskie, zatem wypluwany przez nie sygnał zegara jest fatalnej jakości, podobnie jak pływające tempo oddawanych danych audio.

Rozwiązanie z protokołem asynchronicznym USB eliminuje problem, to jest prawda. Ale wcale nie dlatego, że protokół asynchroniczny w jakiś magiczny sposób zapewnia niski jitter i wcale nie dlatego że ten protokół jest inny niż ten "zwykły" protokół USB!

Natura działania "asynchronicznego USB" wymusza po prostu zrobienia po stronie odbiornika poprawnego buforowania danych i lokalnego zegara. To samo rozwiązanie (zegar i bufor) zadziałałoby dokładnie tak samo dobrze (no OK., są tu drobne subtelności, ale można je pominąć bez szkody dla dyskursu) przy tradycyjnym (jednokierunkowym i wysokojitterowym) protokole transmisji przez USB!

Transmisja asynchroniczna faktycznie ma drobną zaletę (pozwala na uniknięcie problemu opróżnienia bufora przy bardzo kiepskiej jakości zegara w nadajniku, i pozwala na użycie bufora bardzo małej długości, co znacznie zmniejsza opóźnienie między naciśnięciem przycisku "Play" a faktycznym rozpoczęciem odtwarzania), więc akurat warto ją stosować. Rozumiem wartość reklamową hasła "jesteśmy genialni, bo wymyśliliśmy nowy protokół USB który nie ma wad starego" (ma, o tyle że stary protokół z buforowaniem da dźwięk tej samej jakości co protokół asynchroniczny) i jestem gotów wybaczyć producentom użycie w reklamie fałszywego argumentu do obrony dobrego rozwiązania, ale nie widzę powodu do wybaczania błędów merytorycznych prasie audio.

4. Jestem z wykształcenia informatykiem. Rozumiem zasady działania protokołów transmisji danych. I te w komputerach (w tym - po USB), i te ze świata audio. Rozumiem co to jest jitter i jak można z nim walczyć. Rozumiem co to jest transmisja sterowana zegarem, transmisja synchroniczna, transmisja asynchroniczna. Rozumiem co to jest buforowanie.

Dlatego niebywale mnie irytuje szeroko rozpowszechnione w świecie audio magiczne, szamańskie wręcz podejście do problemu przesyłania danych ze źródła (transportu) do DAC-a!

Traktowanie problemu jittera w sposób magiczny zamiast poprawnego metodologicznie podejścia inżynieryjnego, powoduje rozpowszechnianie na ogromną skalę strasznych bredni, oraz mało skuteczne rozwiązywanie problemu od niewłaściwej strony, ale za to za ciężkie pieniądze. Liczba DAC-ów na rynku które stosują buforowanie jest bardzo mała, nawet wśród tych kosztujących tyle co mieszkanie, a producenci dopiero niedawno zaczęli stosować (niekiedy) rozwiązania poprawne technicznie i metodycznie, i to na ogół z konieczności (urządzenia takie jak Linn, pobierające dane z sieci lokalnej, nie są w stanie działać inaczej w ogóle; w DAC-ach z łączem USB nie da się inaczej uzyskać naprawdę dobrego dźwięku; ale w przypadku połączenia SPDIF czy HDMI problem jest nadal masowo ignorowany!).

Byłbym bardzo wdzięczny za niepisane tekstów typu "retaktowanie danych nie jest panaceum, ale wybiegiem".
Jest dokładnie odwrotnie. To właśnie retaktowanie z buforem jest panaceum, a wszystko inne jest wybiegiem! (poza taktowaniem transportu zegarem DAC-a, lub DAC-a wyprowadzonym osobno zegarem transportu, ale to zupełnie inna sprawa i możemy ją pominąć).

Oczywiście, to wymaga podkreślenia, to musi być retaktowanie przez użycie bufora taktowanego na wyjściu zegarem taktującym DAC. Rozwiązania typu resamplingu, pętli DLL itp. też bywają nazywane retaktowaniem, ale one akurat faktycznie są wybiegiem i próbą rozwiązywania problemu przez jego (mniej lub bardziej skuteczne) obchodzenie dookoła.

Naprawdę bardzo chciałbym dożyć czasów, gdy w recenzjach DACów recenzent będzie pisał zgodnie z prawdą: "część audio jest zrobiona bardzo kompetentnie i brzmi znakomicie, ale część cyfrowa jest zrobiona po amatorsku i nie stosuje buforowania danych".

Zadaniem prasy jest przekazywanie czytelnikom informacji kompetentnych i prawdziwych. Proszę ich nie wprowadzać w błąd pisząc zamiast tego teksty w stylu "w części audio mamy bardzo ładny odbiornik CSxxxx otoczony pięknymi kondensatorami" co ma sugerować sekcję cyfrową wysokiej jakości, a (jeśli za tym odbiornikiem nie ma bufora taktowanego tym samym zegarem który taktuje DAC) znaczy naprawdę "kolejny producent, który nie umie poprawnie zbudować części cyfrowej urządzenia" (czego przeciętny czytelnik nie jest w stanie się sam domyślić).

A jeszcze bardziej chciałbym dożyć czasów, gdy jedyne poprawne technicznie rozwiązanie będzie stosowane przez wszystkich producentów urządzeń audio (i nie będzie konieczności wytykania im niekompetencji), ale do tego nie dojdziemy bez publicznego wytykania producentom ich niekompetencji.

Proszę wybaczyć długi list, ale ten temat rozsierdza mnie regularnie.

Pozdrawiam serdecznie,
Grześ




Panie Grzegorzu!

Dziękuję bardzo za długi i wyczerpujący list. Dotyka on wielu ważnych aspektów, z którymi na co dzień się stykam, dlatego będzie dobrym pretekstem dla przedstawienia moich spostrzeżeń z tym związanych.
Nie chciałbym pana Jeszcze bardziej rozsierdzać, ale choć pana opis wydaje się najczęściej poprawny teoretycznie – nie do końca, zaraz o tym – to od strony praktycznej, w działaniu, zupełnie się nie sprawdza. Nie jest pan zresztą osamotniony w takim odbiorze różnych „rewelacji” z tym związanych, bo myśli tak wielu producentów, inżynierów, a i ludzi związanych z konsumenckim audio. Ja się jednak z tym nie zgadzam. Już mówię dlaczego, odnosząc się bezpośrednio do kolejnych punktów.

1. USB
"Firmy usiłują sobie z tym radzić w różny sposób, najczęściej przetaktowując sygnał w „daku”, upsamplując go itp. I często działa to całkiem przyzwoicie. Niestety re-taktowanie nie jest panaceum na wszystkie problemy, a jedynie wybiegiem."
a dalej (odnośnie urządzenia Halide Design):
"można taktować sygnał zegarem Bridge’a, nie zegarem komputera – praca w trybie „asynchronous”. Oznacza to, że jitter jest zależny jedynie od zegara urządzenia, wtyku oraz – w małym stopniu – dodatkowych bramek logicznych, przez które sygnał musi przejść. "
Przetaktowanie sygnału nie jest panaceum i jest wybiegiem, natomiast urządzenie Halide Design jest wspaniałe bo przetaktowuje sygnał swoim zegarem.

Czy nie dostrzega Pan sprzeczności w tym co Pan napisał?”

Nie, nie ma tu sprzeczności. Mowa bowiem o dwóch różnych rzeczach. Normalnie sygnał jest taktowany zegarem nadajnika (komputera). Taki sygnał jest obarczony ogromnym (patrz pomiary w „Sterephile’u”) Ritterem, ponieważ taktowanie to nie jest stabilne – jest nieco przyspieszane, czasem opóźniane, w zależności od tego, co główny procesor komputera „uważa” za priorytetowe. Co więcej, jest zależne także od tego, jakiej wielkości prąd pobieramy z wejścia USB. Taki sygnał można oczywiście przetaktować, ale jest to przetaktowanie zniekształconego wstępnie sygnału, przez co błędy wynikające z takiej obróbki są przenoszone dalej wraz z sygnałem. Jitter ostatecznie polega na tym, że zero i jedynki nie mają zawsze wymaganej wartości napięcia, przez co są „mylone” między sobą. Co więcej, jitter ma różne postaci – może być skorelowany z sygnałem, stochastyczny itp. Ponowne taktowanie przywraca stabilność czasową sygnału, ale otrzymujemy sygnał już wstępnie zniekształcony!

Asynchroniczne USB polega zaś na tym, że sygnał jest taktowany nie zegarem komputera, a zegarem odbiornika i jest to taktowanie z bardzo niskim jitterem, niezależnym od „poleceń” głównego procesora PC. Dostajemy od razu „czysty” sygnał, retaktowany, ale przy bardzo niskim poziomie jittera wejściowego.

Zanim jednak sygnał zostanie przetaktowany, musi być właściwie odczytany z płyty. Jak wiadomo, Red Book bazuje na tzw. Red Solomon Code, czyli kodzie pozwalającym na „odzyskiwanie” utraconych fragmentów sygnału. Polega to na tym, że jeśli napęd nie bardzo radzi sobie z odczytem, wadliwa część kodu jest zastępowana kodem uzyskanym w drodze „wymyślania” (że tak powiem) utraconych sampli na bazie sampli sąsiednich. Im dłuższe „dziury”, tym bardziej sygnał zniekształcony. Ostatecznie chodzi o zastępowanie oryginalnego sygnału sygnałem sztucznym, mającym przypominać sygnał oryginalny, ale tylko o tyle, o ile pozwala „inteligencja” układów odtwarzacza. To dlatego najlepsze odtwarzacze CD maja ustawiony najniższy poziom owego „odzyskiwania” – to da się ustawiać – i wydaja się gorzej radzić z porysowanymi płytami. Z kolei w przenośnych odtwarzaczach ustawia się maksymalny poziom, dodaje duży bufor, stąd brak przeskakiwania. Nie ma to jednak wiele wspólnego z oryginalnym sygnałem.

2. Jittera nie da się wyeliminować, a jedynie zmniejszyć. Znam dobrze urządzenia Chorda, a także McIntosha, w których zastosowano rozbudowane układy retaktujące i buforujące. To rzeczywiście nieźle działa, ale… nie tak, jak eliminacja tych problemów u źródła, czyli np. zastosowanie dobrego zegara, przesył osobnym kablem każdego z sygnałów (kanały, zegar, dane itp.), zasilanie osobne zegara soczewki, solidna mechanika itd. Co więcej – we wszystkich przypadkach duże znaczenie dla dźwięku ma wybór kabla cyfrowego. Jeślibyśmy założyli, że przetaktowanie eliminuje jitter, kabel – byle trzymający 75 omową impedancję – nie miałby w urządzeniach z buforem i układami antyjitterowymi wpływu na sygnał. A ma i to bardzo duży.

3. Niestety nie dożyje pan czasów, kiedy będzie pięknie i pięknie. Sposobów realizacji np. przesyłu jest wiele i nie ma jedynej „słusznej” drogi. Ostatecznie i tak wszystko jest weryfikowane odsłuchem. To najważniejsze, moim zdaniem, kryterium. Naprawdę nie ma większego znaczenia, co ktoś zrobił, o ile urządzenie dobrze gra. Jeśli mielibyśmy mierzyć urządzenia miarą ich technicznej poprawności, doszlibyśmy do tego, co magazyn „Hi-Fi News” w latach 70., kiedy to niemal zniknął z półek, bo dla niego niemal każdy wzmacniacz był taki sam, ponieważ podobnie mierzył. „High Fidelity” należy do grupy magazynów, w których najważniejsza jest część odsłuchowa. Tak jest i tego nie zmienię – wynika to z mojego wieloletniego doświadczenia w pracy także w studio, także z inżynierami.

Nie potrafię inaczej odpowiedzieć, poza tym, że ostatecznie każdy wybiera taka prasę, jaka jest dla niego właściwa. Ja wybieram prasę tego typu, co „High Fidelity”.

A jeśliby pan dalej mi nie wierzył, sugeruję, żeby porozmawiał pan z panem Waszczyszynem (Ancient Audio) – to naukowiec, wieloletni pracownik uczelni, specjalista od przebiegów cyfrowych, który na odtwarzaczach CD (i nie tylko) zęby zjadł – on panu powie, co można sobie z „teoretycznym” podejściem zrobić. O wszystkim świadczą bowiem tylko i wyłącznie efekty, a nie metoda. Są oczywiści metody lepsze i gorsze, ale – znowu – „po owocach ich poznacie”.

Mam nadzieję, że udało mi się choć trochę odpowiedzieć na pańskie zarzuty. Mam też nadzieje, że nie obraziłem pana niczym, jednak mnie też krew zalewa, kiedy czytam lub słyszę coś, co jest zupełnie sprzeczne z moim doświadczeniem…

Pozdrawiam
Wojciech Pacuła



Dzień dobry panie Wojciechu!

Przepraszam za dłuższe opóźnienie - miałem sporo pracy, a odpowiedzieć chcę z sensem. "Panie Grzegorzu!
Dziękuję bardzo za długi i wyczerpujący list. Dotyka on wielu ważnych aspektów, z którymi na co dzień się stykamy, dlatego będzie dobrym pretekstem dla przedstawienia moich spostrzeżeń z tym związanych. Nie chciałbym pana Jeszcze bardziej rozsierdzać, ale choć pana opis wydaje się najczęściej poprawny teoretycznie – nie do końca, zaraz o tym – to od strony praktycznej, w działaniu, zupełnie się nie sprawdza. Nie jest pan zresztą osamotniony w takim odbiorze różnych „rewelacji” z tym związanych, bo myśli tak wielu producentów, inżynierów, a i ludzi związanych z konsumenckim audio. Ja się jednak z tym nie zgadzam. Już mówię dlaczego, odnosząc się bezpośrednio do kolejnych punktów.

1. USB
"Firmy usiłują sobie z tym radzić w różny sposób, najczęściej przetaktowując sygnał w „daku”, upsamplując go itp. I często działa to całkiem przyzwoicie. Niestety re-taktowanie nie jest panaceum na wszystkie problemy, a jedynie wybiegiem."
a dalej (odnośnie urządzenia Halide Design):
"można taktować sygnał zegarem Bridge’a, nie zegarem komputera – praca w trybie „asynchronous”. Oznacza to, że jitter jest zależny jedynie od zegara urządzenia, wtyku oraz – w małym stopniu – dodatkowych bramek logicznych, przez które sygnał musi przejść. " Przetaktowanie sygnału nie jest panaceum i jest wybiegiem, natomiast urządzenie Halide Design jest wspaniałe bo przetaktowuje sygnał swoim zegarem.

Czy nie dostrzega Pan sprzeczności w tym co Pan napisał?”

Nie, nie ma tu sprzeczności. Mowa bowiem o dwóch różnych rzeczach.
Normalnie sygnał jest taktowany zegarem nadajnika (komputera). Taki sygnał jest obarczony ogromnym (patrz pomiary w „Sterephile’u”) Ritterem, ponieważ taktowanie to nie jest stabilne – jest nieco przyspieszane, czasem opóźniane, w zależności od tego, co główny procesor komputera „uważa” za priorytetowe. Co więcej, jest zależne także od tego, jakiej wielkości prąd pobieramy z wejścia USB.

To prawda.
Taki sygnał można oczywiście przetaktować, ale jest to przetaktowanie zniekształconego wstępnie sygnału, przez co błędy wynikające z takiej obróbki są przenoszone dalej wraz z sygnałem.

To oczywiście nieprawda.


Jitter ostatecznie polega na tym, że zero i jedynki nie mają zawsze wymaganej wartości napięcia, przez co są „mylone” między sobą.

Nic dalszego od prawdy!

To co Pan opisał to nie jitter, ale błędy transmisji - zupełne zniekształcenie sygnału, w taki sposób że to co do nas dociera to coś zupełnie innego niż było nadane. Gdyby porównać do przesyłania dokumentu tekstowego przez sieć komputerową, to co Pan opisał to losowo zmienione litery w tekście, podczas gdy jitter polega na tym, że między odebraniem kolejnych liter mija różna ilość czasu.


W protokole SPDIF jest zresztą tak samo - jitter polega na zmiennym tempie przepływu danych, a "mylenie" zer i jedynek polega na uszkodzeniu sygnału (co na ogół skutkuje efektami typu ciszy, szumu  lub pstryknięć w głośnikach lub wręcz całkowitym zerwaniem transmisji i niemożliwością zsynchronizowania nadajnika z odbiornikiem). Co więcej, jitter ma różne postaci – może być skorelowany z sygnałem, stochastyczny itp. Ponowne taktowanie przywraca stabilność czasową sygnału, ale otrzymujemy sygnał już wstępnie zniekształcony!

W ogólności to też nieprawda, choć bywa tak w pewnych przypadkach szczególnych.

Zjawisko o którym Pan pisze występuje w przypadku resampligu (zwłaszcza asynchronicznego) sygnału lub rekonstrukcji zegara z sygnału źródłowego (na przykład za pomocą pętli PLL i podobnych technik).


W przypadku zapisywania odbieranych danych do bufora i pobierania ich z bufora w oparciu o taktowanie lokalnym zegarem przetwornika, całkowicie znika korelacja między zegarem nadawcy (i charakterem jitteru od źródła aż do odbiornika) a jitterem danych pobieranych z bufora (zależnym wyłącznie od charakterystyki lokalnego zegara w przetworniku). Asynchroniczne USB polega zaś na tym, że sygnał jest taktowany nie zegarem komputera, a zegarem odbiornika i jest to taktowanie z bardzo niskim jitterem, niezależnym od „poleceń” głównego procesora PC. Dostajemy od razu „czysty” sygnał, retaktowany, ale przy bardzo niskim poziomie jittera wejściowego.

Tak.

I dokładnie tak samo jest w przypadku zastosowania bufora w dowolnej metodzie transmisji. To samo można zrobić przy "zwykłym" USB, to samo można zrobić przy S/PDIF-ie. Wiadomo że czasami się to robi, ale wyłącznie w sprzęcie bardzo drogim (lub takim, który bez tego zupełnie nie działa - na przykład odtwarzacze przenośne).

Wnioski są moim zdaniem dość oczywiste.


Zanim jednak sygnał zostanie przetaktowany, musi być właściwie odczytany z płyty. Jak wiadomo, Red Book bazuje na tzw. Red Solomon Code, czyli kodzie pozwalającym na „odzyskiwanie” utraconych fragmentów sygnału. Polega to na tym, że jeśli napęd nie bardzo radzi sobie z odczytem, wadliwa część kodu jest zastępowana kodem uzyskanym w drodze „wymyślania” (że tak powiem) utraconych sampli na bazie sampli sąsiednich. Im dłuższe „dziury”, tym bardziej sygnał zniekształcony.

Nie.

Reed Solomon jest kodem wykrywania i rekonstrukcji błędów w oparciu o nadmiarowość. To znaczy, że jeśli ten algorytm jest w stanie "naprawić" błąd, to wynik jest identyczny jak to co jest na płycie. Pomysłowy sposób wykorzystania R-S w standardzie Red Book powoduje, że pozwala on naprawić błędy do 4000 bitów (kolejnych!), czyli uszkodzenia płyty o rozmiarach do 2,5 mm. Przez naprawić rozumiemy odzyskanie dokładnie takich danych jakie były w tym miejscu na płycie, a nie jakiegoś przybliżenia!


Jeśli błąd nie daje się naprawić przez R-S, to wtedy być może jakieś napędy robią interpolację, ale wcale nie jestem o tym przekonany. Ostatecznie chodzi o zastępowanie oryginalnego sygnału sygnałem sztucznym, mającym przypominać sygnał oryginalny, ale tylko o tyle, o ile pozwala „inteligencja” układów odtwarzacza.

Nie, jak napisałem wyżej - wcale nie o to chodzi.

To dlatego najlepsze odtwarzacze CD maja ustawiony najniższy poziom owego „odzyskiwania” – to da się ustawiać – i wydaja się gorzej radzić z porysowanymi płytami.

Nie, zupełnie nie dlatego. To jest jeden z typowych przykładów audio voodoo - technicznie bzdurnych praktyk, za pomocą z nierozumiejących technologii klientów można wyciągnąć kupę kasy.

Każdy napęd w którym "kastruje się" logikę obsługi błędów w oparciu o przeplatanego Reeda-Solomona jest po prostu napędem kiepskim, a nie high-endowym. Z kolei w przenośnych odtwarzaczach ustawia się maksymalny poziom, dodaje duży bufor, stąd brak przeskakiwania. Nie ma to jednak wiele wspólnego z oryginalnym sygnałem. Wręcz przeciwnie - to właśnie oznacza skuteczne dekodowanie poprawnych danych. W dodatku z (potencjalnie) bardzo małym jitterem - zależnym wyłącznie od jakości zegara.


2. Jittera nie da się wyeliminować, a jedynie zmniejszyć.

To prawda.

Ale nie wynika to z magicznych trudności w obróbce sygnału, ale z niemożliwości zrobienia zegara który nie ma jittera. Minimalny jitter który da się uzyskać to jitter odpowiadający zegarowi po stronie DACa - dlatego tak ważne jest żeby ten zegar był jak najlepszej jakości.


Znam dobrze urządzenia Chorda, a także McIntosha, w których zastosowano rozbudowane układy retaktujące i buforujące.

Z tego co pamiętam, to nigdy nie czytałem, żeby w którymkolwiek Macintoshu było buforowanie.
To rzeczywiście nieźle działa, ale… nie tak, jak eliminacja tych problemów u źródła, czyli np. zastosowanie dobrego zegara, przesył osobnym kablem każdego z sygnałów (kanały, zegar, dane itp.), zasilanie osobne zegara soczewki, solidna mechanika itd.

Dobry zegar - tak, zwłaszcza po stronie odbiorczej. Dobre zasilanie - kluczowe, bo wpływa bezpośrednio na jakość konwersji w DAC-u, ale równie kluczowo wpływa na jitter zegara. Solidna mechanika, osobne zasilanie zegara soczewki - ma znaczenie tylko wtedy, jeśli po stronie DAC-a nie ma recklokingu poprzez buforowanie, i wtedy zapewne rzeczywiście może wpływać na jakość dźwięku.
W przypadku buforowania z dobrym zegarem - nie ma znaczenia.
Naprawdę, technika cyfrowa to nie magia - tu da się zweryfikować czy coś działa czy nie, czysto merytorycznie. To zupełnie inna sytuacja niż w domenie analogowej ("słyszalność" wzmacniaczy, kabli itp.). Co więcej – we wszystkich przypadkach duże znaczenie dla dźwięku ma wybór kabla cyfrowego.

Słyszalność kabla cyfrowego oznacza niepoprawnie działający odbiornik, nadajnik lub oba. Przy buforowaniu danych po stronie odbiorczej - nie ma żadnego znaczenia.

Na forum Audioasylum udziela się kilka osób które znają się na temacie. Jest tam dobry tekst na temat słyszalności kabli USB. Po jego przeczytaniu wierzę, że różne kable USB "słychać". Ale wyjaśnienie tego zjawiska jest zupełnie niemagiczne - słychać, jeśli używamy DACa który pobiera zrekonstruowany zegar z odbiornika USB. Po prostu masowo stosowane odbiorniki za kilka centów są tak dramatycznie złe, że zmiana impedancji kabla destabilizuje widmo jitteru odtworzonego zegara, co da się usłyszeć.

Ale to nie znaczy, że dobór kabla jest ważny, tylko że taki odbiornik (i DAC w którym jest zastosowany) nadaje się wyłącznie na śmietnik, a nie na produkt sprzedawany ludziom za pieniądze.


Jeślibyśmy założyli, że przetaktowanie eliminuje jitter, kabel – byle trzymający 75 omową impedancję – nie miałby w urządzeniach z buforem i układami antyjitterowymi wpływu na sygnał. A ma i to bardzo duży.

Przykro mi, ale nie wierzę.
To może mieć znaczenie w urządzeniach bez bufora (uwaga: resampling, upsampling i tym podobne to zupełnie co innego niż buforowanie z retaktowaniem, a bywa często mylone!), lub niepoprawnie skonstruowanych.


3. Niestety nie dożyje pan czasów, kiedy będzie pięknie i pięknie.

Ale to tylko dowód, że rynek jest zalany przez niekompetentnie zaprojektowany złom.
Gdyby tak było w przypadku kart sieciowych, komputerów, telefonów komórkowych - żadna z tych rzeczy by nie działała.

Tak jest po prostu dlatego, że niektóre urządzenia projektują kompetentni inżynierowie, a branża audio jest zalana przez amatorszczyznę, którą da się wcisnąć klientom, którzy w niewiarygodnym stopniu nie rozumieją jak bardzo są robieni w trąbę. Sprawie nie pomaga fakt, że prasa audio nie umie się odnieść do technologicznej poprawności urządzenia (a czasami być może nie chce).

Żeby nie było, komitety projektowe złożone z kompetentnych fachowców potrafią wypuszczać na rynek tak samo spektakularne buble, wiedząc że źle robią. Moim ulubionym przykładem jest standard HDMI.
Jak wiemy, za poważną wadę SPDIFa (czy Toslinka) uważa się fakt, że nie przesyła się tam zegara równolegle do danych. Gdyby się przesyłało, a zegar w transporcie był dobry - problem o którym dyskutujemy by nie istniał (synchronizowanie nadajnika i odbiornika tym samym zegarem powoduje, że po obu stronach mamy w zasadzie tylko jitter zegara nadawczego, a transmisja na niego nie wpływa). Wydawałoby się więc, że przy projektowaniu nowego standardu przesyłania danych cyfrowych należałoby ten nieszczęsny problem rozwiązać. Niestety, tak się nie stało - w HDMI również nie ma miejsca na przesyłanie zegara, gdyż najpierw zaprojektowano układ kabelków we wtyczce i kablu, a gdy przyszli fachowcy od przesyłania sygnału, okazało się, że na zegar już nie ma kabelka.

I znowu będziemy płacić setki i tysiące złotych za magiczne kabelki cyfrowe HDMI, tylko dlatego, że zostały zaprojektowane w sposób urągający podstawowym zasadom inżynierii. Sposobów realizacji np. przesyłu jest wiele i nie ma jedynej „słusznej” drogi.

Nie, nie ma jedynie słusznej drogi, ale są drogi poprawne i drogi niepoprawne. Każda droga poprawna jest równie dobra - czy to będzie SPDIF, Toslink, USB "tradycyjne", asynchroniczne, Ethernet, Bluetooth czy cokolwiek innego.
Wystarczy, żeby implementacja była zrealizowana w sposób poprawny technologicznie.


I faktycznie - asynchroniczne USB, Ethernet (odtwarzacze strumieniowe Linna), SPDIF do DAC-a z buforowaniem - wszystkie działają tak samo dobrze. Jestem pewien, że żaden złotouchy audiofil nie odróżniłby rodzaju połączenia, gdyby było zrobione poprawnie, cała reszta była identyczna, i było ono karmione identycznego rodzaju danymi.

Ostatecznie i tak wszystko jest weryfikowane odsłuchem. To najważniejsze, moim zdaniem, kryterium. Naprawdę nie ma większego znaczenia, co ktoś zrobił, o ile urządzenie dobrze gra.

Nie, nie zgadzam się. Na początku musi być uczciwość i kompetencja techniczna. Dopiero gdy zbudujemy urządzenie, które nie urąga elementarnym zasadom projektowania, można przejść do pomysłów na dźwięk, kształtowania brzmienia, udoskonalania i tym podobnych.

Poprawność techniczna wcale nie oznacza, że dźwięk będzie gorszy. Jest w zasadzie odwrotnie - urządzenie poprawnie zaprojektowane i skonstruowane ma szanse na to, żeby dało się z niego zrobić coś, co gra wybitnie. Urządzenie skonstruowane w oczywisty sposób głupio i niepoprawnie może grać dobrze i może się podobać, ale jest zwykłym oszustwem wobec klienta. Dokładnie takim oszustwem, jak Goldmund czy Lexicon wkładający bebechy supermarketowego odtwarzacza w swoją obudowę i sprzedającym za cenę kilkunasto- czy kilkudziesięciokrotnie wyższą.

Wolałbym, żeby producent wkładał swój wysiłek w doskonalenie brzmienia urządzenia od początku zrobionego dobrze - być może za rozsądne pieniądze wyprodukuje urządzenie brzmiące fantastycznie. Tak jest dużo lepiej, niż producent wkładający wysiłek w uzyskanie brzmienia przyzwoitego czy niezłego z urządzenia zrobionego nierzetelnie, za ciężkie pieniądze wyciągane od klienta.

Dla mnie zabawa w kilkudziesięciokilogramowe obudowy transportu (na przykład Goldmund, firma raczej z branży metalurgicznej a nie elektronicznej), ciężkie jak cegła dociski do płyty, zamawiane specjalnie oprogramowanie do sterowania transportem - to jest właśnie naciągactwo i oszustwo, jeśli te rzeczy robi się zamiast poprawnego zaprojektowania sekcji cyfrowej. Rozumiem, że dużo łatwiej reklamować rzeczy które widać i są z grubsza zrozumiałe (na przykład kontrolę wibracji) niż kilkumilimetrowy kawałek krzemu oprogramowany inaczej niż u konkurencji, ale takie podejście - zrozumiałe z punktu widzenia chęci maksymalizacji przychodu - jest zwykłą kpiną i oszustwem.

Nie widzę powodu, dla którego miałbym się z tym godzić jako klient lub obserwator rynku.


Jeśli mielibyśmy mierzyć urządzenia miarą ich technicznej poprawności, doszlibyśmy do tego, co magazyn „Hi-Fi News” w latach 70., kiedy to niemal zniknął z półek, bo dla niego niemal każdy wzmacniacz był taki sam, ponieważ podobnie mierzył.

Ależ nic podobnego! To zupełnie nie ma związku.

Ja nie proponuję, żeby odsłuchy zastąpić pomiarami. Ja tylko proponuję, żeby urządzenia konstruować zgodnie z regułami sztuki, poprawnie technologicznie.

Oczywiście DAC z poprawnie realizowanym odbiorem sygnału może brzmieć kiepsko, jeśli będzie miał kiepskie zasilanie, kiepski zegar, słaby stopień wyjściowy, marny przetwornik, źle brzmiący filtr rekonstrukcyjny - miejsc gdzie można zbłądzić jest mnóstwo. Dlatego dowód jakości jest zawsze w odsłuchu. Chord na ten przykład robi przetwarzanie cyfrowe wzorcowo, ale nie każdemu musi się podobać ze względu na stopień analogowy, podobnie Naim w swoim DACu.

Ale odmawiam kierowania się jedynie odsłuchem i voodoo, ignorując elementarne reguły inżynierii! Nie mam nic przeciwko artykułowi w którym przeczytam tekst w stylu "marna sekcja cyfrowa, a mimo to brzmi świetnie", "sekcja cyfrowa o konstrukcji typowo budżetowej, którą równoważy fantastyczna sekcja analogowa".

Mogę nawet zechcieć posłuchać takiego urządzenia - na przykład z ciekawości. Ale jest dla mnie niedopuszczalnym skandalem ignorowanie tej kwestii, z jakiegokolwiek powodu (tradycji, niezrozumienia tematu, tego że czytelnicy nie zrozumieją tematu, tego że producenci przestaną się reklamować, czy jakiegokolwiek innego).


„High Fidelity” należy do grupy magazynów, w których najważniejsza jest część odsłuchowa. Tak jest i tego nie zmienię – wynika to z mojego wieloletniego doświadczenia w pracy, także w studio, także z inżynierami.

Ależ ja bardzo cenię odsłuchy! Artykuły w których pisze się tylko o konstrukcji urządzeń mnie nie na ogół nie interesują. Ale chęć opierania się o ostateczne kryterium (odsłuchowe) nie może oznaczać ignorowania kwestii konstrukcyjnych. W przeciwnym razie będziemy wychwalać na przykład bezczelne naciągactwo zdarzające się Goldmundowi, Lexiconowi, Micromedze, czy zwyczajną miernotę zastępującą kompetencje.

Nie potrafię inaczej odpowiedzieć, poza tym, że ostatecznie każdy wybiera taka prasę, jaka jest dla niego właściwa. Ja wybieram prasę tego typu, co „High Fidelity”.

Dla mnie na przykład „Stereophile” jest dobrym przykładem zachowania proporcji - piszą dużo o brzmieniu, nie boją się krytykować urządzeń na podstawie odsłuchów, ale oprócz tego dość rzetelnie piszą o stronie technicznej. Zdarzają się im artykuły wychwalające stronę akustyczną i miażdżące konstrukcję, jak i odwrotnie (oczywiście prócz artykułów wychwalających dany produkt pod niebiosa).

Rozumiem profil "High Fidelity", dowodem mojej akceptacji jest fakt, że czytam ten magazyn od kilku lat.
Ale jeśli już w ogóle piszemy o rozwiązaniach technicznych (a gdyby Pan nie pisał, to zapewne zrezygnowałbym z lektury), to część techniczna powinna być równie kompetentna jak część konstrukcyjna. Nie musi być bardzo rozbudowana, ale nie powinna wprowadzać czytelników w błąd ani przechodzić do porządku dziennego nad rozwiązaniami słabymi czy zwyczajnie kiepskimi. A jeśliby pan dalej mi nie wierzył, sugeruję, żeby porozmawiał pan z panem Waszczyszynem (Ancient Audio) – to naukowiec, wieloletni pracownik uczelni, specjalista od przebiegów cyfrowych, który na odtwarzaczach CD (i nie tylko) zęby zjadł – on panu powie, co można sobie z „teoretycznym” podejściem zrobić.

Gdyby pan Waszczyszyn, którego cenię przede wszystkim za konstrukcje analogowe (w tym za stopnie wzmacniające w odtwarzaczach) i za konsekwencję, próbował mnie przekonać do cyfrowego voodoo, to przeklnę go tak samo jak innych czarowników. Ale nie wierzę, żeby tak było - mam o nim zbyt dobre zdanie.

Niemniej zdaje sobie Pan oczywiście sprawę, że Waszczyszyn jako konstruktor odtwarzaczy zintegrowanych po prostu nie ma tych problemów, o których dyskutujemy. Ewentualne wejścia cyfrowe w jego odtwarzaczach pełnią rolę drugorzędną, jeszcze nie widziałem recenzji Lektora która ignorowałaby go jako odtwarzacz i skupiałaby się na użyciu go w roli DAC-a z innym transportem. Co  zapewne jest świadomym wyborem konstruktora, który zajmuje się cyzelowaniem dźwięku przez dopracowanie zasilania, zegara i sekcji analogowej, nie musząc marnować czasu na walkę z transmisją cyfrową.


O wszystkim świadczą bowiem tylko i wyłącznie efekty, a nie metoda. Są oczywiście metody lepsze i gorsze, ale – znowu – „po owocach ich poznacie”.

Ależ oczywiście - ale żeby kompetentnie dyskutować o jakości i wartości urządzenia, trzeba choćby w minimalnym stopniu zrozumieć jak działa i w jaki sposób jego dźwięk wynika z zastosowanych rozwiązań konstrukcyjnych. Zwłaszcza, jeśli chodzi o rozwiązania szczególnie łatwo poddające się analizie technologicznej - tak jak cyfrowa transmisja danych.

Mam nadzieję, że udało mi się choć trochę odpowiedzieć na pańskie zarzuty.

Jak Pan sami widzi, niezupełnie. Bardzo chętnie będę kontynuować tę dyskusję, jeśli znajdzie Pan czas i chęć!
Mam też nadzieje, że nie obraziłem pana niczym, jednak mnie też krew zalewa, kiedy czytam lub słyszę coś, co jest zupełnie sprzeczne z moim doświadczeniem…

W żadnym razie, i mam nadzieję że nie uraziłem niczym Pana! Bardzo cenię sobie dyskusję merytoryczną, nawet jeśli moje poglądy różnią się znacznie od poglądów mojego dyskutanta :)

Pozdrawiam serdecznie,
grześ





Panie Grzegorzu!

Dziękuję bardzo za kolejny merytoryczny tekst – proszę mi wierzyć, to rzadkie, bo w takich sytuacjach najczęściej chodzi moim rozmówcom tylko na wyłożeniu swojego zdania, bez względu na to, co było przedmiotem dyskusji.

Ale, jak widać, w najważniejszych punktach nie zgadzamy się. Na szczęście znalazłem kilka elementów wspólnych, na których można zaczepić dalszą rozmowę. Przede wszystkim – pan Waszczyszyn.
Zgadzamy się chyba, że to specjalista w tym, co robi. Ponieważ jest też wykształconym naukowcem, nie tylko ROBI, ale WIE co robi. A najważniejsze produkty AA jak dla mnie, to odtwarzacze CD. A jego największym sukcesem jest DZIELONY odtwarzacz Lektor Grand SE, z dwoma, oddzielnymi przetwornikami i przesyłem sygnału za pomocą pięciu łączy 75 Ω na kanał. Słyszałem wiele modyfikacji, część przeprowadzanych bezpośrednio na moich oczach. Osobne zasilanie MA OGROMNE znaczenie, szczególnie na tym poziomie. Zmiana S/PDIF na osobne przesyłanie zegara ma OGROMNE znaczenie. Właśnie testuję niedrogi dzielony odtwarzacz Stello, gdzie mam do wyboru łącze I2S i SPDIF i bez cienia wątpliwości wybieram to pierwsze. To Zamo było w urządzeniach AA. Z tego, co widzę i co wiem, w obydwu urządzeniach odbiorniki są wykonane co najmniej poprawnie, zapewniony jest stabilny (kosztowny) zegar itp. Słyszę, że różnica jest i to duża. To samo z kablami – różnice są duże i nie jest to sprawa wiary, a po prostu wiedzy – słyszałem, więc wiem. Jedyne, co mogę zasugerować, to to, że nigdy nie uczestniczył pan w poprawnie przeprowadzonym pokazie, który miałby to zaprezentować i być może dlatego mówi pan o „niewierze”.

Parametry – no tutaj mamy kompletnie inne podejście, chociaż wychodzimy od podobnych przesłanek. Uważam, że inżynieria jest na początku, bez niej nie da się zrobić niczego sensownego. Ale – jak dla mnie – to tylko punkt wyjścia, nie dojścia. Jeżeli mam wybierać między lepiej pod kątem inżynierii, zrobionym urządzeniem i takim, które lepiej gra, ale może nie do końca jest „koszerne” dla inżyniera, bez wahania wybieram to drugie.

Jitter – nie mam innego wytłumaczenia, jak powyżej: słyszałem wielokrotnie różnice między dobrymi i bardzo dobrymi transportami. Z dobrymi i bardzo dobrymi przetwornikami, jak dCS i AA i inne, które trudno podejrzewać o spartaczenie sekcji odbiornika. Oznacza to, że bit bitowi nierówny. I absolutnie nieprawdą jest, że interpolowanie sampli przez napęd jest „transparentne” i bez wpływu na dźwięk. Wielokrotnie uczestniczyłem w pokazach, w których dwa sygnały analizowane bit po bicie wyglądały identycznie, a brzmiały inaczej. Dobitnie pisze o tym firma Digital Recordings www.digital-recordings.com, myślę, że rzecz warta przeczytania.

USB – no cóż, przesłuchałem kilkadziesiąt urządzeń hi-fi i hi-end z tego typu wejściem i mam zupełnie inne spojrzenie niż pan – znakomita większość jest kiepska, a dopiero asynchroniczny odbiornik to zmienia. A i tak dobre łącze SPDIF gra lepiej niż takie łącze USB. Dyskutujemy o tym od dłuższego czasu z p. W. i on stoi na stanowisku, że to niemożliwe. Wciąż jednak nie udało mu się zrobić USB, które potwierdzałoby tezę, że to lepszy sposób przesyłu niż np. I2S.

I teraz najważniejsze: to nie jest voodoo!!! Nigdy nie mówiłem o „magii” w stosunku do rozwiązań technicznych!!! To tylko fizyka i inżynieria. Stawiam jednak tezę, że wciąż niewiele z tego rozumiemy, a jeszcze mniej umiemy pomierzyć, a już w ogóle leży umiejętność skorelowania pomiarów (ale możliwie pełnych) z tym, co słychać. Dlatego, dopóki nie zostanie opracowany standardowy, rozwiązujący wszelkie wątpliwości, powtarzalny system pomiaru, który zniesie konieczność testów odsłuchowych to właśnie te ostatnie będą dla mnie podstawą oceny urządzeń. Niestety niczego takiego nie ma i w bliskiej przyszłości nie będzie. Dlatego trzymam się tego, co słyszę. I najlepiej brzmiące urządzenia oceniam pod katem dźwięku najlepiej. O tym, czy to JAK to jest zrobione ma jakieś znaczenie musi zadecydować klient, nie ja. Ja mogę tylko opisać to, co widzę i to, co słyszę. Z tych dwóch, jak dla mnie, ważniejsze jest to, co słyszę, a słyszę, że wiele założeń inżynierskich w praktyce się nie sprawdza. Ale nie dlatego, że w nie „nie wierzę”, ale dlatego, że kłócą się z moim doświadczeniem – ergo: ich założenia, przesłanki, albo realizacja są błędne.

Pozdrawiam
Wojciech Pacuła