ul. Tarnowska 2, 00-965 Warszawa 505-584-458 kontakt@norbu.pl

Gdzie jest granica jakości dźwięku?

Przeczytałem wiele niekończących się dyskusji na temat sprzętu audio. Tematy to kable, bezstratne vs. stratne, algorytmy kompresji, jitter, ultradźwięki, odtwarzanie plików z różnych miejsc dysku twardego, kondycjonery sieciowe itp.

Przypuszczam, że powód dyskusji koncentruje się na niewielkiej postrzeganej różnicy dźwięku pomiędzy poszczególnymi typami, na przykład kabli. Dyskusja oznacza, że różnica nie jest dla wszystkich oczywista, a może nie ma jej wcale.

Czy to więc koniec high-endu? Czy naprawdę możemy uzyskać słyszalną poprawę, która jest oczywista dla niemal każdego w sprzęcie audio teraz i w przyszłości?

Jaki jest cel sprzętu audio?

Kiedy mówimy o nagraniach muzycznych zespołów akustycznych i orkiestr, to w zasadzie chcemy usłyszeć "naturalny" dźwięk podczas odtwarzania. Naturalny dźwięk" to dźwięk zbliżony do tego, co słyszymy w sali koncertowej lub na żywo.

W tym znaczeniu "naturalność" jest stopniem odtworzenia atmosfery i brzmienia sali koncertowej w normalnym środowisku odsłuchowym, takim jak słuchawki lub głośniki w pokoju.

Jednakże termin "naturalny" nie jest tak prosty, jak się wydaje. Nie ma "naturalnego" brzmienia instrumentu muzycznego. Jest tylko "naturalny" dźwięk systemu [instrument muzyczny + sala koncertowa].

Co się dzieje teraz?

Moim zdaniem współczesne urządzenia audio klasy hi-fi/hi-end są bliskie ideału, jeśli chodzi o pojęcie niskich zniekształceń.

Urządzenia audio osiągają niski poziom zniekształceń przy przesyłaniu muzyki przez cały system: od mikrofonu do kolumn w pokoju odsłuchowym.

Sprzęt audio zniekształca, gdy sygnał muzyczny jest przesyłany z mikrofonu do pokoju odsłuchowego.

Idealny system powinien charakteryzować się zerowymi zniekształceniami w całym łańcuchu. Sygnał, który jest odbierany przez mikrofon, a następnie wypromieniowywany do głośników nie powinien mieć żadnych zmian. Chodzi tu o zniekształcenia harmoniczne, płaskość lub liniowość różnego rodzaju odpowiedzi. Nawet tanie, nowoczesne cyfrowe urządzenia audio zapewniają wystarczająco dobry dźwięk. Drogie urządzenia brzmią świetnie.

Jest wiele niekończących się dyskusji na temat tego, czy słychać różnice między tym sygnałem, a elementami systemu audio. Czy są to dziwactwa w ustawieniach? Czy sygnał jest zmodowany, czy nie?

Powiedziałem wyżej "bliskie ideału", ponieważ prawidłowo zmierzone różnice dla ludzkiego ucha mogą być albo wystarczająco małe, albo nieobecne (w tym wyimaginowane). W przeciwnym razie nie byłoby dyskusji.

Możemy starać się uzyskać oczywiste różnice w brzmieniu dla wszystkich klas urządzeń audio. Nawet dla tych najlepszych.

Przyszłe problemy

Dla lepszego zrozumienia tematu obejrzyjmy film:

Dźwięk na żywo vs. nagrywanie

Jest to bardzo dobry filmik ilustrujący wady współczesnych systemów audio. Niestety nie znam szczegółów tego eksperymentu, ale słuchanie muzyki na żywo daje mi takie same odczucia. Zespół grający na żywo brzmi lepiej niż nagranie tego samego. Dźwięk na żywo będzie miał więcej "wolumenu", "przestrzeni" itp.

Proces fizyczny

Dźwięk zespołu grającego na żywo

Na scenie umieszczonych jest kilka dookólnych źródeł dźwięku (instrumenty muzyczne). Fale akustyczne rozchodzą się we wszystkich nieskończonych kierunkach wokół źródeł.

Wielokierunkowe źródła akustyczne rozchodzą fale akustyczne (wzdłuż promieni) we wszystkich kierunkach dookoła

Ta nieskończona liczba promieni akustycznych jest odbijana/adsorbowana od/do powierzchni sali koncertowej. Odbite promienie są często ponownie odbijane.

Odbijanie promieni akustycznych, promieniowanych przez instrumenty muzyczne, do sali koncertowej

Wszystkie te bezpośrednio odbite i ponownie odbite promienie "interferują".

Co to jest interferencja?

Interferencja jest sumą oscylacji w danym punkcie przestrzeni (sala koncertowa, pomieszczenie odsłuchowe).

Oscylacje są rozłożone wzdłuż promieni, jak pokazano powyżej. Długości tych promieni są różne. Zatem fale od źródła dźwięku (instrumentu muzycznego) do punktu przechodzą z różnym opóźnieniem. A fale do punktu mogą być wzajemnie wzmacniane lub redukowane.

Zyskiwanie i redukcja nie są przedmiotem tego artykułu. Głównym zagadnieniem jest prawidłowe zarejestrowanie zakłóceń w punkcie przestrzeni w sali koncertowej i identyczne odtworzenie tych zakłóceń w docelowym punkcie przestrzeni w pomieszczeniu odsłuchowym. Pozycja ucha słuchacza jest zwykle uważana za najbardziej krytyczny punkt.

W sali koncertowej lub w pomieszczeniu odsłuchowym powstaje pole falowe. Pole to jest zmienne w zależności od punktu skupienia w pomieszczeniu. Ponieważ wszystkie te promienie interferują inaczej w każdym punkcie sali koncertowej. Punkt, który należy wziąć pod uwagę, znajduje się we wszystkich trzech wymiarach. Ruch w każdym z wymiarów zmienia interferencję.

Jak wygląda pole dźwiękowe. Małe kulki są poruszane przez fale akustyczne.

Dźwięk nagranego zespołu

Dźwięk żywego zespołu uchwycony przez mikrofony.

Istnieją 2 główne podejścia:

  • 1 mikrofon na 1 instrument / grupa instrumentów / jednostka perkusyjna. Pole falowe formowane sztucznie, głównie podczas miksowania i częściowo w postprodukcji. Mikrofony w modelu ludzkiej głowy. Dźwięk jest przechwytywany podobnie jak w uszach człowieka i dystrybuowany do słuchaczy nagrania bez żadnej obróbki.

Metody nagrywania muzyki: manekin głowy i mikrofon na instrument

Nagrania są wypromieniowywane z głośników z pewnymi zniekształceniami przez aparaturę. Głośniki są również dookólnymi źródłami fal akustycznych. Istnieją bezpośrednie promienie akustyczne, odbijające się i odbijające się ponownie, a także interferujące.

Dlatego nagrania generowane przez głośniki tworzą inne pole dźwiękowe niż oryginalny zespół grający na żywo w sali koncertowej. Nawet poprawnie zarejestrowane nagrania będą na tym cierpiały. Tym bardziej po absolutnej eliminacji zniekształceń aparaturowych.

Dlatego, moim zdaniem, przy obecnym poziomie sprzętu audio, powinniśmy dyskutować o jakości reprodukcji pola fal akustycznych, a nie o tradycyjnej jakości dźwięku, takiej jak zniekształcenia (harmoniczne, amplitudowe i inne).

Pole dźwiękowe (akustyczne) jest hologramem dźwiękowym. Podobnie jak hologram optyczny (trójwymiarowy obraz wizualny), pole dźwiękowe jest polem fali akustycznej, które może być odbierane przez nasze uszy.

Kwestie realizacji

Hologram dźwiękowy jest tak naprawdę celem takiego systemu trójwymiarowego. Z reguły systemy te są wielokanałowe.

Wiąże się z tym kilka problemów:

  • Prawidłowe przechwytywanie dźwięku; Wpływ odbić i rerefleksji na dokładność odtwarzania dźwięku przez głośnik; Przekształcenie hologramu punktu odsłuchowego sali koncertowej na hologram w miejscu położenia uszu słuchacza płyty w pomieszczeniu odsłuchowym.

Przechwytywanie

Jeśli chcemy uchwycić dźwięk w jednym miejscu odsłuchowym sali koncertowej, możemy użyć manekina głowy z mikrofonami w "uszach" manekina. Jest to rzecz nietrywialna, jak się wydaje na pierwszy rzut oka. Jednak ludzka głowa jest skomplikowanym systemem odbierania fal akustycznych. To nie są po prostu 2 izolowane mikrofony nad uszami.

Wyobraźmy sobie, że idealnie wymodelowaliśmy "głowę" jako odbiornik fal dźwiękowych. Ale nie ma jednego idealnego modelu, ponieważ różni ludzie mają różne "odbiorniki fal akustycznych" (dalej - "odbiornik głowowy"). Jeśli potrafimy wymodelować odbiorniki głowy znanych kompozytorów, muzyków, wytrenowanych słuchaczy, to możemy wydać różne edycje jednego koncertu (albumu)!

W pierwszym podejściu widzę "odbiornik słuchawkowy" jako system b-mikrofonowy z dwoma wyjściami. Pożądane jest zastosowanie mikrofonów o charakterystyce zbliżonej do ludzkiego ucha. Choć może to być niewystarczające dla pełnej symulacji układu słuchowego "żywego" słuchacza.

Wzorzec mikrofonu to czułość mikrofonu na dźwięk rozchodzący się we wszystkich kierunkach - przestrzeń trójwymiarowa.

Problemy z odtwarzaniem dźwięku z głośnika

Głośnik jest źródłem dźwięku o złożonym wzorcu. Oznacza to, że głośnik emituje promienie dźwiękowe o różnym natężeniu w różnych kierunkach. Wszystkie te promienie odbijają się od wielu różnych powierzchni w pomieszczeniu odsłuchowym.

Bezpośrednie promienie akustyczne z lewego i prawego głośnika, promienie odbite i odbite ponownie są mieszane.

Powoduje to zniekształcenie odtwarzanego hologramu dźwiękowego, nawet jeśli został on prawidłowo nagrany.

Niektóre nowoczesne systemy audio wykorzystują wirtualne źródła dźwięku, aby "narysować" go w przestrzeni pomieszczenia odsłuchowego za pomocą matrycy głośnikowej (system wielokanałowy). Układ ten nie jest sztywną strukturą. Systemy mogą wykorzystywać różne rodzaje matryc głośnikowych.

Jest to jednak synteza obiektu dźwiękowego. Nie jest to hologram dźwiękowy uchwycony w sali koncertowej. Choć synteza jest dobrą decyzją dla muzyki elektronicznej i kina. Tzn. tam, gdzie pole dźwiękowe może być sztucznie budowane.

Pewnie dlatego niektórzy słuchacze wolą "prostsze" systemy stereo.

Problem odtwarzania w słuchawkach

W słuchawkach, w przeciwieństwie do systemu głośnikowego, przetwornik pracuje w bezpośrednim sąsiedztwie ucha.

Nie jest to jednak system idealny. Pomimo niewielkich odległości pomiędzy uchem a przetwornikiem, słuchawka jest skomplikowanym systemem akustycznym, który dodatkowo zniekształca hologram dźwiękowy. Jako źródło promieniowania pracuje nie tylko przetwornik, ale również kubek. Oscylacje pochodzące od przetwornika są mechanicznie rozprowadzane do wszystkich elementów pałąka, a elementy te drgają i rozprzestrzeniają fale akustyczne.

Ucho jest skomplikowanym systemem, który odbiera dźwięk z każdego kierunku. Myślę, że w tym miejscu bardziej poprawnie można mówić o głowie jako odbiorniku dźwięku. Jednak słuchawki nie są w stanie odtworzyć pełnego środowiska akustycznego głowy.

Poza tym, w sali koncertowej fale akustyczne i wibracje oddziałują również na ciało człowieka. Zależy to jednak bardziej od gatunku muzyki (klasyczna, rock, dance, itp.). Oddziaływanie na ciało jest również poza możliwościami słuchawek.

Widziałem zdjęcia, na których głośniki są przedzielone ekranami akustycznymi w celu zmniejszenia przesłuchów pomiędzy lewym głośnikiem a prawym uchem i odwrotnie. Nie jest to jednak najlepsze rozwiązanie, ponieważ problem odbić nie jest rozwiązany. Hologram dźwiękowy jest tam również zniekształcony.

Podsumowanie

Przypuszczam, że mamy potencjalne możliwości, aby w oczywisty sposób poprawić jakość dźwięku w przyszłych urządzeniach audio. Można ją zrealizować poprzez przechwycenie i wytworzenie koncertowego pola dźwiękowego (hologramu dźwiękowego, dźwięku trójwymiarowego) w pomieszczeniu odsłuchowym.

Obecnie najbliższym sposobem na stworzenie hologramu dźwiękowego jest przechwycenie pola dźwiękowego w punkcie odsłuchowym w sali koncertowej za pomocą 2-mikrofonowej atrapy głowy i odtworzenie go przez słuchawki. Nie naśladuje to jednak oddziaływania dźwięku na ludzkie ciało, w tym na całą ludzką głowę.

Systemy głośnikowe mają ten problem z odbijaniem się promieni akustycznych, który znacząco zniekształca odtwarzanie zarejestrowanego pola dźwiękowego w systemie wielokanałowym.

Przyszłe urządzenia do odtwarzania pola dźwiękowego powinny być łatwe w obsłudze jak systemy stereofoniczne.