Akademia Audio Plus

Od stereofonii do hiperrealizmu. Koncertowy dźwięk przestrzenny L-Acoustics L-ISA

 

Słuchacz biorący udział w koncercie czy innym wydarzeniu, w którym muzyka odgrywa istotną rolę, jest nie tylko słuchaczem, ale też widzem. Pragniemy odbierać wydarzenie wszystkimi zmysłami, lub chociaż dwoma najważniejszymi – wzrokiem i słuchem. Technologia wykorzystywana w produkcji koncertów powinna nam na to pozwalać. Dotychczas nie było to możliwe, ale za rozrostem scen, efektów wizualnych, skuteczności systemów nagłośnieniowych, poszedł wreszcie rozrost technologii pozwalającej na bardziej subtelną produkcję muzyczną.

Przedstawiamy w szczegółach technologię dźwięku immersyjnego L-Acoustics L-ISA

System L-ISA na koncercie jubileuszowym Zbigniewa Preisnera w Tauron Arena, Kraków, 05.10.2019

Temat identyfikacji źródła fizycznego, na przykład na scenie, lub wirtualnego gdzieś w przestrzeni, zaczął się, gdy źródła te mogły być przetwarzane do zapisu czy edytowane w postprodukcji. Źródło zarejestrowane przy pomocy jednego mikrofonu, w czasie, gdy jedynym dostępnym sposobem zapisu był zapis mono, nie uwierał jego twórców ani użytkowników, ponieważ nikt nie wiedział, że powstanie technologia stereo. Z każdym aspektem naszego życia jest dokładnie tak samo – nie brakowało nam kolorowych wyświetlaczy do czasu, gdy pojawiły się pierwsze z nich. Nie brakowało nam dotykowych wyświetlaczy do czasu, gdy się pojawiły. Jak większość technologii, które hucznie wchodzą do codziennego używania, technologia stereo w rozwiązaniach koncertowych szybko została zweryfikowana z takim wynikiem, jak technologia 3D w telewizorach, gdzie kosztem miernego efektu jest konieczność zakładania niewygodnych okularów i oglądanie materiału w mało komfortowej skali barw. Nie brakuje nam zatem technologii, która pozwalałaby uczestnikowi dużego koncertu precyzyjnie zlokalizować źródło dźwięku (na przykład grającego solówkę Keitha Richardsa) „na ucho”. I nie będzie nam jej brakować, dopóki się ona nie pojawi. Otóż wszystko wskazuje na to, że właśnie się pojawiła.

1. Jak to właściwie jest z miksem stereo w przypadku nagłaśniania koncertu?

Wyobraźmy sobie standardowy koncert z systemem nagłośnieniowym o kącie propagacji horyzontalnej od 90 do 100 stopni. Doznania stereo w przypadku takiej konfiguracji odbierze jedynie ta część widowni, dla której płaszczyzna propagacji systemu przetnie się z płaszczyzną widowni na wysokości ucha. Przy bardzo sprzyjających okolicznościach obszar ten nie będzie zawierał więcej niż jedną trzecią widowni, plus silnie panoramowane źródła zawierające się w pasmie poniżej częstotliwości pracy głośników wysokotonowych. Ludzie przebywający poza tym obszarem doświadczą dwóch różnych miksów mono – jednego naprzeciw lewej strony systemu i drugiego naprzeciw prawej strony. Wszyscy ludzie znajdujący się w szczęśliwej strefie „stereo” będą mieli jeszcze kilka dyskomfortów – obraz dźwiękowy zespołu na scenie wędrować będzie w lewo z każdym krokiem w lewo i w prawo z każdym krokiem w prawo. Ostatecznie bardzo często realizatorzy serwują nam w ramach demokracji miks prawie mono ze stereofonicznymi efektami, lecz bez skrajnych panoram dla głównych instrumentów. Następstwem demokratyzmu pochodzącego od miksu „prawie mono” jest jego emisja wszystkimi elementami systemu. Nasz mózg jest dość zdezorientowany widząc solo gitarowe na środku sceny, a słysząc je z bliższej strony systemu. Niestety nasze uszy rozłożone są w płaszczyźnie poziomej, dzięki czemu mamy dość dużą rozdzielczość identyfikacji kierunku, z którego dociera dźwięk (oczywiście zależne jest to mocno od pasma, w którym operuje dane źródło). Można założyć, że sygnały nie zawierające wysokich tonów ulegną lekkiemu rozmyciu i będą łaskawsze w budowaniu obrazu na systemie stereo. I tak się stanie – kosztem ograniczonej możliwości dokładnej lokalizacji (nasz kontent będzie rozmyty na pewnej przestrzeni). Ucho ludzkie wraz z mózgiem tworzą na tyle doskonały duet, że horyzontalnie identyfikują pozycje fizyczną z kątem, pod którym dociera dźwięk, z dokładnością do 7,5 stopnia. Z powyższej właściwości możemy wywnioskować, że jeśli gitarzysta z piecem stoi dokładnie przed nami, to może oddalić się o 7,5 stopnia w lewo lub prawo i nadal identyfikować będziemy dźwięk z jego osobą. Siedem i pół stopnia – to znaczy, że przy scenie o szerokości 15 m musimy oddalić się o około 55 m, by nie mieć dyskomfortu z uwagi na fakt, że słyszymy naszego ulubionego artystę z innego miejsca, niż go widzimy.

Po tym jak format stereo wszedł na całego do nośników, przetworników, domowych systemów Hi-Fi oraz systemów nagłośnieniowych, naturalnym następstwem stało się kreatywne korzystanie z dobrodziejstw tej technologii. Inżynierowie rozpoczęli eksperymenty z obejmowaniem publiczności przy pomocy dźwięku, co wydało na świat rozwiązania takie jak quadro czy surround, przy pomocy których można kreować przestrzeń głownie pod względem efektów dynamicznych, jak przeloty źródeł dookoła nas, lub efektów imitujących akustykę słuchanego koncertu czy sceny w oglądanym filmie. W rozwiązaniach koncertowych sytuacja ma się podobnie, a do całości dochodzą problemy takie jak opóźnienie wynikające z czasu propagacji dźwięku w powietrzu czy precedens wyprzedzenia sygnału bezpośredniego przez pogłos. Oczywiście niedogodności wspomniane wcześniej przy temacie stereofonii pozostają aktualne dla rozwiązań wielokanałowych typu quadro czy surround niezależnie od ilości kanałów, więc w zależności od rozmiaru sceny wrażenie faktycznego obrazu dźwiękowego ograniczy się jedynie do mniejszego lub większego dyskomfortu wynikającego z rozdzielenia tego, co widzimy od tego, co słyszymy.

The Beatles na pierwszym na świecie koncercie stadionowym - Shea Stadium, Nowy Jork, 1965

Podsumowując zagadnienia stereo, quadro i surround, możemy powiedzieć, że zakładany efekt możliwy jest do odebrania w sweet spocie, czyli tam, gdzie obie strony systemu grają z taką samą głośnością, a przy założeniu, że działają i zostały poprawnie zaprojektowane, jest to miejsce, gdzie horyzontalne pokrycie każdego źródła pokrywa się z każdym innym. Poza tym obszarem mamy do czynienia z efektem mono dla większej części pasma, a przy sporym panoramowaniu źródeł w miksie – z dwoma sygnałami mono (różnymi dla każdej ze stron systemu). I z pewnością spora część inżynierów dźwięku (zwłaszcza tych koncertowych) krótko po zachłyśnięciu się wrażeniami wynikającymi ze skrajnych panoram słyszanych za mikserem, szybko wróciła do monofonizowania miksu, wykorzystując panoramę jako narzędzie ułatwiające znalezienie więcej miejsca w tworzonym materiale wyjściowym.

Jeszcze zanim było wiadome, że technologia stereo nigdy nie odda faktycznego obrazu dźwiękowego dla większej części widowni niż ta, która znajduje się w sweet spocie, A.J. Berkhout opisał technologię umożliwiającą reprodukcję dowolnego obrazu dźwiękowego dla obszaru publiczności, który jest znacznie mniej ograniczony niż wcześniej wspomniany sweet spot. Nazwa tej technologii brzmi równie poważnie jak poważna jest stojąca za nią nauka. Mowa o Syntezie Pola Falowego (ang. Wave Field Synthesis). Technologia ta jest tak samo skomplikowana teoretycznie, co praktycznie, a zastosowanie jej dla koncertów uniemożliwia wykorzystanie ogólnodostępnych koncertowych zestawów głośnikowych.

2. Technologia Syntezy Pola Falowego

Mam nadzieję, że uda mi się opisać teorię oraz rzeczywiste konfiguracje systemów dla tej technologii w przyjaznych słowach, a dalsza część artykułu pozostanie możliwie lekka i przyjemna.

Wyobraźmy sobie, że siedzimy na widowni, a na scenie widzimy skrzypaczkę grającą sonatę Bacha. Do chwili gdy nie będzie potrzebne nagłośnienie, dźwięk skrzypiec dociera do nas bezpośrednio, zgodnie z jego naturalną propagacją. Instrument generuje falę (prawie) kulistą, dzięki czemu każda osoba na koncercie jest w stanie określić kierunek, z którego dociera dźwięk. Analizując taki przypadek jesteśmy w stanie znaleźć słuchacza, który usłyszy każdy detal jako pierwszy. Będzie to osoba, która znajduje się najbliżej w prostej linii od źródła. Możemy więc na rzucie z góry narysować okrąg ze środkiem w miejscu, gdzie znajduje się źródło, o promieniu równym odległości do pierwszego słuchacza, otrzymując minimalną odległość źródło-słuchacz. W ten sposób dowiadujemy się, że dźwięk bezpośredni zdobywa kolejnych słuchaczy po upływie kolejnych odcinków czasu, zwiększając średnicę okręgu, ale nie zniekształcając go.

W ten sam sposób zachowywać będzie się każdy kolejny instrument pojawiający się na scenie, jednak z taką różnicą, że jeśli znajdzie się on w horyzontalnie innym miejscu, niż wcześniej wspomniane skrzypce, to zmieni się osoba na widowni, która usłyszy go jako pierwsza. W ten sposób każdy koncert bez nagłośnienia zawsze odbierany będzie przez słuchacza tak samo wzrokowo, jak i słuchowo, ponieważ nie ma rozbieżności między pozycją na scenie a kierunkiem, z którego dociera dźwięk. Berkhout przy pomocy dwóch bardzo fundamentalnych aparatów matematycznych (zasady Fresnela-Huygensa oraz całki Kirrchhoffa-Helmholtza) stworzył opis tego, w jaki sposób odtworzyć pole akustyczne towarzyszące źródłom w przestrzeni, mając jedynie określone ciśnienie akustyczne i prędkość dźwięku na pewnej określonej płaszczyźnie.

Jak odtworzyć tego typu wrażenia, gdy zastosujemy nagłośnienie?

Wiemy już, że pod względem elementów generujących dźwięk, instrumenty w przeważającej większości generują falę kulistą, z tendencją do kierunkowania pewnych zakresów częstotliwości w zależności od tego, jak duży jest element generujący dźwięk oraz zakres wytwarzanych częstotliwości. Dzięki temu łatwo określić towarzyszące im pole dźwiękowe, które przed odbiciami przypomina po prostu puchnącą bańkę. Do opisania pola akustycznego wokół punktowego źródła Berkhout sięgnął po zasadę Fresnela-Huygensa, która mówi, że każdy punkt do którego dotarła fala może być rozpatrywana jako nowe źródło fal kulistych, czyli każde czoło fali może być superpozycją innych fal. Zasada ta w elegancki sposób tłumaczy też zjawisko załamania dźwięku lub światła po przejściu do innego ośrodka lub zjawisko dyfrakcji, ustanawiając każdą krawędź nowym źródłem. Jeśli jednak da się odbudować falę pierwotną przez superpozycję fal cząstkowych, to powoli zaczyna otwierać się nam droga do odtworzenia bańki, o której była mowa wcześniej. Wyobraźmy sobie teraz, że dysponujemy szeregiem maleńkich głośników zainstalowanych na elastycznej taśmie o długości kilku metrów. Jeśli ustawimy się z taką linią w pewnej odległości od źródła, pozostaje jedynie wygiąć naszą taśmę tak, by dopasować jej krzywiznę do kształtu „bańki” dźwiękowej, rozchodzącej się od oryginalnego źródła. Ostatnią rzeczą jest odpowiednie opóźnienie linii głośników, co tworzy z nich linię opóźniającą dopasowaną do czasu propagacji od pierwotnego źródła do miejsca, gdzie znajduje się nasza listwa.

Jeśli zastosowalibyśmy listwę głośników dopasowaną do każdego źródła na scenie (jeśli byłoby ich więcej niż jedno) to po wyrównaniu czasowym odtworzylibyśmy obraz akustyczny sceny w płaszczyźnie horyzontalnej (w płaszczyźnie wertykalnej nasze ucho jest bardziej łaskawe). Wówczas, gdyby nawet zasłonić muzyków lub wyprowadzić ich do pomieszczenia obok, a z każdej listwy odtworzyć sygnał poszczególnego źródła zebrany przy mikrofonie, to prawdopodobnie dla publiczności nie zrobiłoby to żadnej różnicy pod względem dźwięku. Pomijając kameralny koncert w małej przestrzeni.W powyższym przykładzie stworzyliśmy superpozycję za pomocą odpowiednio ukształtowanej linii źródeł. Niestety przy fizycznym kształtowaniu źródeł konieczne jest zastosowanie osobnego zestawu dla każdego źródła znajdującego się na scenie. Zejdźmy więc na ziemię. Musimy ograniczyć się do zastosowania jednego zestawu głośników dla wszystkich źródeł .

3. Budujemy system „idealny”

Można zbudować serię źródeł wzdłuż całej szerokości sceny, zasilając każdy głośnik z niezależnego wzmacniacza. Wtedy sygnał z każdego źródła może być wysyłany niezależnie do każdego głośnika systemu. Ostatnią brakującą częścią w układzie jest niezależne opóźnienie dla każdego głośnika, które umożliwi kreowanie superpozycji dla źródła tworząc jego wirtualny obraz na scenie. Źródła stojące bliżej widowni charakteryzować będą się mniejszym promieniem „bańki”, natomiast te w głębi sceny dotrą do naszej globalnej linii głośników z bardziej płaskim czołem fali, co korespondować będzie z inną dystrybucją opóźnień do poszczególnych głośników.

Niestety gdy będziemy mieli do czynienia z większą ilością źródeł na scenie, linia opóźniająca w torze głośnika nie wystarczy, ponieważ może ona tworzyć superpozycję jedynie dla jednego instrumentu. Potrzebny jest algorytm, który rozłoży opóźnienia w zależności od pozycji na scenie, wysyłając każde źródło z różnym rozkładem czasowym względem głośników i w ten sposób stworzy odpowiednio zakrzywione czoło fali. Mając algorytm, odpowiednio dużą moc obliczeniową, sporą ilość głośników i kanałów wzmacniaczy, budujemy system nagłośnieniowy, którego jeszcze nikt nie słyszał. Już w pierwszych prototypach natrafiamy na ścianę problemów natury konstrukcyjnej – jak i gdzie zainstalować szereg głośników, obejmujący całą szerokość sceny? Kolejnym problemem staje się rozkład ciśnienia akustycznego, co po części wymusza bardzo konkretną pozycję naszej linii względem widowni. Jeśli zainstalujemy ją na krawędzi sceny, rozkład SPL będzie taki sam jak w przypadku subwooferów - czyli kilkanaście, jeśli nie kilkadziesiąt decybeli różnicy. Przez fakt, że nasz „wąż” głośnikowy jest szerokopasmowy, łatwo go zasłonić, tworząc cień, w którym tak skrupulatnie budowany obraz dźwiękowy po prostu zniknie. Jeśli jednak uporamy się z dobraniem odpowiedniej pozycji, bo dajmy na to artysta czy zespół jest technologicznie świadomy, to nasza konstrukcja natrafi na kolejną przeszkodę znaną z elementarnej wiedzy na temat projektowania zestawów głośnikowych: górny limit pasma wyznaczany przez odległości między głośnikami. Jeśli będziemy zawzięci, kupimy pięćset głośników o średnicy dwóch centymetrów i zbudujemy z kitów pięćset wzmacniaczy. Mamy więc dziesięć metrów ciągłego źródła. Dwucentymetrowy głośnik zachowa ciągłość prawie do granic pasma słyszalnego, jednak nie odtworzy sprawnie pasma poniżej dwóch kiloherców. Dojdziemy do wniosku, że na chwilę obecną zbudowaliśmy syntezator pola falowego dla pasma wysokiego. Zamawiamy więc sto głośników o średnicy czterech cali i budujemy quasi-koaksjalne źródło o zadowalającym pasmie pracy. Piszę tutaj w osobie hipotetycznego konstruktora-eksperymentatora, który znajduje problemy doświadczalnie, więc kolejny przytrafi się, gdy tylko uruchomimy nasz system i zaaplikujemy ustawienia dla nagłaśnianej właśnie sceny. Ciekawe czy przed przeczytaniem dalszej części wiecie, o jaki problem chodzi?

4. Zjawisko aliasingu

Niestety nie tylko odległości między przetwornikami decydują o górnej częstotliwości granicznej. Ma na nią wpływ również różnica opóźnień między przetwornikami, która w sumie z odległością nie może przekroczyć połowy długości fali górnej częstotliwości. Przez niejednoznaczną reprezentację sygnałów okresowych dochodzi do powstawania częstotliwości, które nie są zawarte w sygnale pierwotnym. Zjawisko to nazywa się aliasingiem i w mniejszym lub większym stopniu zachodzi w każdym tego typu układzie. Z czysto teoretycznego punktu widzenia nasza linia z przetworników o średnicy 2 cm dąży do ideału: wymusza spory budżet na wzmacniacze, przetworniki i DSP, lecz jednocześnie pozbywa się problemu aliasingu z pasma użytecznego. Ludzkość cały czas próbuje sobie ułatwiać, więc taniej będzie przy pomocy studentów zrobić badania, czy aby taka dokładność jest potrzebna, niż dalej budować drogie, bo idealne, systemy syntezowania pola akustycznego.

Po serii testów psychoakustycznych znajdujemy kolejną łaskawość mózgu. Pomimo tego, że przy mniejszej dyskretyzacji systemu aliasing wkracza w pasmo słyszalne, jego efekty zaczynają nam przeszkadzać dopiero przy odsunięciu głośników od siebie o więcej niż 15 cm. Oczywiście wiele zależy od kąta, pod którym nagłaśniane źródło „patrzy” na nasz system oraz od tego, pod jakim kątem od osi systemu znajduje się słuchacz.

Informacja o takich wynikach badań daje podstawy do konstruowania znacznie tańszych lub większych rozwiązań. Systemy w postaci liniowych układów głośników sprawdzą się w każdym wypadku, gdy możliwości montażu nie zepsują wizualnie pomieszczenia i pozwolą na wspomniany wcześniej poprawny rozkład SPL. Dodatkowo należy pamiętać, że listwa z czterocalowych głośników nie wyprodukuje odpowiedniej ilości niskich tonów, przez co możliwość zastosowania jej do nagłośnienia koncertu w dużej hali czy plenerze, zwłaszcza dla muzyki charakteryzującej się sporym konturem niskich tonów, jest raczej mała.

Przechodzimy do praktyki

Długiego wstępu potrzeba, by mimo wszystko dość ogólnie opisać dostępne obecnie technologie umożliwiające połączenie wrażeń wzrokowych ze słuchowymi w warunkach koncertowych. W jaki sposób spełnić wymagana stawiane nam przez naturę? Mówiliśmy o odległościach rzędu 15 centymetrów. Wiemy jednak, że w branży nagłośnieniowej szerokość kolumn zaczyna się od pół metra, a kończy na półtora metra lub więcej. Jak przebudować założenia i całe podejście do zaprojektowania technologii w taki sposób, by wykorzystać tysiące zestawów głośnikowych funkcjonujących na rynku?

5. Rodzi się L-ISA

Rozwiązanie zaczęło się kluć kilka lat temu w siedzibie firmy L-Acoustics, a pomysłodawcą był twórca firmy L-Acoustics, pasjonata dźwięku, fizyk z wykształcenia, Christian Heil. Idea stworzenia systemu L-ISA powstała po tym, jak twórca wybrał się na koncert francuskiej gwiazdy, która po latach wróciła na scenę. Niestety zamiast cieszyć się głosem i widokiem bohatera koncertu, zmagał się z tym, by w ogóle zobaczyć wykonawcę między oślepiającymi strumieniami świateł i rozbudowaną realizacją multimediów. Sytuacja przypominała znane przypadki, gdzie na scenie o szerokości 12 m pojawia się kilkadziesiąt urządzeń oświetleniowych, ekran LED i lasery, a nagłośnienie… najlepiej jeśli stanowiłoby dwie paczki „na kiju”.

Prace rozpoczęły się od decyzji, czy w ogóle algorytmy znane z syntezy pola falowego nadają się po jakichkolwiek modyfikacjach do zastosowania w systemach nagłośnieniowych, gdzie separacja źródeł wynosi kilka metrów. Nie wiem, czy już na etapie teoretycznym, czy doświadczalnie, ale stwierdzono, że rozwiązanie WFS nie będzie w stanie zachować wymaganej jakości.

Podział systemu L-ISA ze względu na funkcje.

Gdy mamy do dyspozycji pięć źródeł w postaci gron systemu liniowego, odległości odgrywają tak samo ważną rolę, jak to, jak szeroka jest scena. Instalując nasze pięć gron na scenie o szerokości 20 m mieścimy się „na styk” i jest to akceptowalne. Mając jednak do czynienia z widownią, która jest bardzo blisko, lub gdy system został nisko zawieszony,warto dodać kolejne dwa grona. Przy tej okazji warto wspomnieć, że w celu optymalizacji dystrybucji niskich tonów źródłem dźwięku dla obiektów umieszczonych centralnie na scenie nie może być źródło pozorne między gronami. To oznacza, że liczba klastrów musi być zawsze nieparzysta, a co za tym idzie jeden z nich zawsze umieszczony jest centralnie. Ta część odpowiedzialna jest za budowę obrazu sceny i w dokumentacji oraz oprogramowaniu nosi nazwę SCENE SYSTEM. Relacja rozpiętości systemu, szerokości sceny oraz szerokości widowni zmusiła twórców do udostępnienia możliwości poszerzenia panoramy sceny z jednoczesnym zachowaniem struktury systemu scenicznego. Do tego celu można dołożyć dodatkowe grona poszerzające panoramę, zwane EXTENSION SYSTEM. Ich usytuowanie jest już nieco bardziej, ale nie w pełni dowolne. Do wyznaczenia pozycji wszystkich zestawów składających się na SCENE SYSTEM i EXTENSION SYSTEM stworzone zostało dodatkowe oprogramowanie określające wyjściowe pozycje gron wraz z ich azymutem na podstawie informacji o szerokości sceny, szerokości widowni, liczbie gron w systemie scenicznym i systemie poszerzającym panoramę oraz tego, gdzie znajduje się punkt referencyjny, czyli pozycja miksu, będąca jednocześnie ważną informacją przy skalowaniu systemu dla różnych lokalizacji lub wyjściu z sali prób na koncert.

Jak gdyby tego było mało, do wcześniej wspomnianych systemów scenicznych i poszerzających obraz dodać możemy zestawy SURROUND na suficie, ścianach bocznych oraz na ścianie tylnej, tworząc półprzestrzeń otaczającą słuchaczy.

Kryteria wyznaczone do poprawnego zaprojektowania systemu.

Pamiętajmy, że mamy do czynienia z rozwiązaniami koncertowymi, a co za tym idzie trudno będzie o wspomnianą wcześniej bliskość źródeł. Omawiana na początku listwa w technologii WFS jest elementarnie źródłem punktowym dla każdego źródła syntetyzowanego ze sceny. Gdyby wygenerować z niej dźwięk bez zastosowania opóźnień, stałaby się ona prostym źródłem liniowym, którego negatywne walory znamy choćby z prostej linii subwooferów bez opóźnień, której energia jest skupiona w osi. Jeśli zaprojektujemy odpowiednio opóźnienia, stworzymy łuk, którego ogniskowa będzie wirtualnym źródłem. Pozioma linia promieniuje dookólnie w funkcji odległości. To nie zapewni nam poprawnego nagłośnienia dla koncertów większego formatu, niż te w klubach, małych teatrach czy operach. System L-Acoustics L-ISA został stworzony do pracy z głośnikami marki L-Acoustics, co sprawia, że system można dość eladtycznie skalować. Dzięki temu możemy sobie wyobrazić sytuację, gdy wychodzimy z prób na zestawach typu X8 w studiu na arenę dla 15 tysięcy ludzi i po drobnych poprawkach, związanych z przeskalowaniem, uzyskujemy ten sam obraz dźwiękowy podczas wydarzenia. Wróćmy jednak do kryteriów, które są wyznaczane przez konieczność zastosowania istniejących zestawów głośnikowych.

Dyskretyzacja (w odniesieniu do pasma przenoszenia)

Na wstępie pojawia się problem, który w części poświęconej WFS wydaje się naturalny. Wartość graniczna dla WFS wynosiła 15 cm, ale jak wspomniałem większość zestawów to rozmiar 50+ centymetrów (i nie - nie brakuje tutaj zera). Taki rozmiar na wstępie oddala źródła od siebie o metr i dyskwalifikuje syntezę pola falowego, gdybyśmy chcieli wykorzystać ją na koncertach wielkiego formatu. L-Acoustics L-ISA wykorzystuje efekt panoramowania sygnału, uwzględniając faktyczne odległości między gronami systemu. Ale nawet w takiej sytuacji pojawia się problem interferencji między źródłami, którego nie da się usunąć, a jedynie zminimalizować jego wpływ na pasmo. Dlatego dla L-ISy założono dwie konfiguracje: WIDE i FOCUS.

L-ISA WIDE

Konfiguracja WIDE systemu L-Acoustics L-ISA przeznaczona jest do nagłośnienia mowy, muzyki klasycznej, jazzowej i innych lekkich gatunków. Z racji przetwarzanego pasma i charakterystyki utworów, grona rozmieszczone są z maksymalną separacją co 5 metrów. Pomiary wykazały, że do tej odległości nie zachodzą zbyt negatywne interferencje dla przetwarzanego pasma w wyżej wymienionych zastosowaniach, natomiast zestawy poszerzające panoramę mogą być instalowane z jeszcze większą odległością przy jednoczesnym zmniejszeniu konturu niskich tonów.

L-ISA FOCUS

Konfiguracja FOCUS przeznaczona jest dla cięższych brzmień, gdzie maksymalny SPL i kontur niskich tonów odgrywa znaczącą rolę. Tutaj, zgodnie z tym, czym sugerujemy się rozkładając na przykład subwoofery, odległości nie powinny przekroczyć czterech metrów, przy założeniu, że scena nie jest szersza niż 20 metrów. Przekraczając 20 metrów, należy dołożyć kolejne grona, zagęszczając ich liczbę w oknie sceny i unikając spadku SPL przez zbyt duże odległości. Dodatkowo jeśli kontur niskich tonów musi być duży lub jeśli mamy do pokrycia sporą widownię, lub jeśli artysta tworzy ciężkie elektroniczne brzmienia, wewnętrzne grona powinny być wykonane z systemu szerokopasmowego - z naciskiem na zestawy K2, ponieważ emituje on dźwięk na szerokość 110 stopni, automatycznie powiększając strefę, w której efektywnie działa L-ISA.

Dyskretyzacja (w odniesieniu do identyfikacji horyzontalnej)

Przypomnę, że rozdzielenie „w głowie” informacji wizualnej od informacji dźwiękowej następuje, gdy względem słuchacza kąt między źródłem a wykonawcą przekroczy 7,5 stopnia. Dział R&D L-Acoustics wykonał badania na dość szerokim polu, by wyznaczyć maksymalne odległości między gronami. L-Acoustics L-ISA wykorzystuje efekt panoramowania sygnału, uwzględniając źródła zawarte w przestrzeni. Procesor - nawet nie w pewnym sensie, ale rzeczywiście – wie, gdzie w trójwymiarowej przestrzeni znajduje się dane źródło. Dzięki temu sygnał jest w pewnym sensie przelewany między poszczególnymi głośnikami, płynnie przechodząc między nimi przez wykorzystanie efektu źródła pozornego. W ten sposób podnosi się rozdzielczość akustyczną, zmniejszając możliwość przekroczenia wartości 7,5 stopnia między głośnikiem a faktyczną pozycją wykonawcy. Teraz nasuwa się wniosek, że najtrudniej jest sprostać warunkom horyzontalnej dyskretyzacji w bliskim polu, ponieważ kąt wykonawca-źródło szybko wzrasta w miarę przybliżania się, natomiast relatywna odległość między poszczególnymi elementami systemu nagłośnieniowego nie zmienia się i nie da się też dodać więcej, niż jedno źródło pozorne między dwoma źródłami rzeczywistymi.

Zadanie naukowców polegało na balansowaniu między tym, jaka będzie odległość między elementami systemu nagłośnieniowego, biorąc pod uwagę przesunięcie interferencji w stronę pasma, które można „poświęcić”, a tym, kiedy powstanie problem z przekroczeniem maksymalnego kąta. W wyniku badań dowiedziono,, że nie można przekroczyć odległości pięciu metrów. Oczywiście mniejsze odległości są w porządku, ale…

Ciąg dalszy nastąpi

O autorze

Inż. Jerzy Kubiak jest cenionym inżynierem systemów nagłośnieniowych i realizatorem dźwięku, doświadczonym w pracy przy dużych wydarzeniach live. Prowadzi własną firmę produkcyjną, a jednocześnie od 2007 roku współpracuje z firmą Fotis Sound, która realizuje nagłośnienie podczas największych wydarzeń muzycznych w Polsce. Jest autorem licznych artykułów i opracowań w prasie branżowej, które wychodzą wprost z jego pasji dla technologii związanej z dźwiękiem.

CZYTAJ DALEJ

Zapraszamy na Scenę Jutra!

Usłysz system L-Acoustics L-ISA w Teatrze Wielkim - Operze Narodowej podczas międzynarodowej konferencji nowych technologii scenicznych Scena Jutra! Już 19-20 lutego 2020

CZYTAJ DALEJ

Nie przegap kolejnego odcinka!

Zapisz się na nasz newsletter, aby być zawsze na bieżąco i otrzymać informację o nowym odcinku artykułu nt. technologii L-ISA w Akademii Audio Plus!

CZYTAJ DALEJ