Jako użytkownicy – gdyż jakby nie patrzeć również jestem użytkownikiem takim jak każdy – spotykamy się z wieloma urządzeniami audio, często ocieramy się o informacje stricte techniczne, poznajemy ich budowę, uczymy się mimowolnie konstrukcji. I przede wszystkim dźwięku. Z czasem ewoluuje to do konkretnej wiedzy, a nawet i zwykłego przeczucia, że dany element toru lub wprost konkretnego urządzenia, będzie miał takie a nie inne przełożenie na dźwięk, chociażby jakiś wzmacniacz operacyjny albo cały komponent wewnętrzny. O ile producenci z reguły skazują nas na akceptowanie danego dźwięku wg ich własnej wizji, o tyle w niektórych przypadkach istnieje możliwość fizycznego wpływu na dźwięk, np. poprzez samodzielną wymianę części elektronicznych, nie wymagającą nawet specjalnie sięgania po lutownicę lub wybitnej wiedzy elektronicznej. Przypadki te są niestety bardzo rzadkie i coraz rzadsze mam wrażenie. Co jednak, gdyby samodzielnie podejść do tematu i wykreować sobie taki przypadek własnymi rękami? Dla siebie, pod swój własny system i słuchawki, a do tego w dobie problemów z dostępnością układów scalonych?
To też stało się pewnym przyczynkiem do podjęcia decyzji o stworzeniu czegoś naprawdę wyjątkowego, ciekawego i przede wszystkim wysoce dla mnie osobiście praktycznego, urządzenia. Zbudowanego samodzielnie na bazie starych części PC, za którymi z reguły nikt się specjalnie nie rozgląda, będąc jednocześnie serwerem muzycznym, streamerem, transportem cyfrowym, odtwarzaczem plików bit-perfect PCM384 i DSD256/DoP256, przetwornikiem cyfrowo-analogowym RCA z wymiennymi wzmacniaczami operacyjnymi, integrą słuchawkową, magazynem danych obsługiwanym sieciowo z telefonu, PC czy tabletu, a także wygodną platformą testową do recenzji oraz tak prozaicznych rzeczy, jak kabli z wtykami XLR. Wszystko to zamknięte w robionej na zamówienie obudowie i ze specjalnymi modyfikacjami elektroniki oraz chłodzenia, aby całościowo pracować w kompleksowej, bezpiecznej i prawie pasywnej formule.
Dosyć ambitnie, zwłaszcza przez wzgląd na użycie średnio 10-letnich podzespołów, pamiętających jeszcze czasy FDD i IDE. Ale ponieważ jest to projekt całkowicie prywatny i jednorazowy – spróbowanie swoich sił z perspektywy czystej kartki daje jeszcze większą radochę i satysfakcję. I tak też zrodziło się cudo prezentowane w niniejszym artykule: audiofanatykowy serwer muzyczny ST-3200A, będący wszystkim tym, czego mi trzeba i mający w sobie wiele z tego, czego od lat nie używałem, a co tylko chowało się po kartonach i krzyczało, aby w końcu to wziąć i sprzedać lub zutylizować. A że nie umiałem tego drugiego uczynić z czystym sumieniem wiedząc, że sprzęt ten wciąż jest w pełni sprawny i to jeszcze na dodatek w świetnej kondycji, tym bardziej jeszcze większa radość z ukończenia tego projektu. Zwłaszcza przez pryzmat ponad półrocznej walki jednego człowieka z szeregiem problemów, które przez swój upór sam sobie stworzył, a także fakt, że najprawdopodobniej jest to pierwszy w Polsce serwer tego typu oparty na x86 w takiej formie, na takich podzespołach i z takimi funkcjami. A przynajmniej ja nie spotkałem się z niczym tego typu, poza konstrukcjami na RPi.
UWAGA! Artykuł jest ekstremalnie długi i na tą chwilę jest największą publikacją (ok. 70 stron tekstu po uzupełnieniach opisów OPA), jaka kiedykolwiek została opublikowana na łamach mojego bloga. W wielu miejscach będzie to więc bardzo prywatny, osobisty wpis, zawierający nie tylko przemyślenia około-audio, ale także poruszający aspekty również światopoglądowe w tym zakresie i będące efektem wielu lat przemyśleń, doświadczeń oraz rozmów z setkami osób o tym co nam – osobom zafascynowanym muzyką – daje największą przyjemność i spełnia nasze dźwiękowe oraz użytkowe potrzeby. Opisywać będzie przy tym proces powstawania urządzenia, schemat decyzyjny, analizę moich własnych potrzeb, wymagań i preferencji, a także uzyskane finalnie efekty w kilku iteracjach zmian i testów różnych rozwiązań, np. związanych z chłodzeniem czy zasilaniem. Zaleca się przygotowanie napojów gorących i zarezerwowanie dłuższej chwili na lekturę. Z racji pisania po nocach i wielokrotnego aktualizowania mogą zdarzyć się też literówki albo urwane zdania, za które przepraszam. Ponieważ planuję dodatkowe prace przy serwerze i dodatkowe zdjęcia, przy okazji aktualizacji będę starał się korygować je na bieżąco.
Słowem wstępu
Na samym początku chciałbym podkreślić bardzo mocno, że wszelkie opisane tutaj aspekty, sugestie i czynności mają charakter inspiracyjny i nie są sztywnymi wytycznymi, których należy się trzymać za wszelką cenę. Poza oczywistymi kluczowymi warstwami programowo-sprzętowymi, opisywana maszyna nie jest jedyną słuszną drogą na jej stworzenie. Nie jest to też instrukcja krok po kroku jak je zbudować. Po prostu miałem potrzebę, koncepcję, części, więc spróbowałem „coś” z tego zmontować. Fakt publikacji oznacza, że z powodzeniem.
Z perspektywy bloga całość ma raczej na celu funkcjonowanie jako swoiste modus operandi w kontekście nadchodzących recenzji, ponieważ sprzęt pełni też rolę integry słuchawkowej i jest strojony w odpowiedni sposób. W recenzjach będę zapewne wielokrotnie się powoływał na wrażenia płynące z podłączenia pod niego słuchawek lub wzmacniacza, toteż warto mieć spisane dokładnie również jak to wszystko gra i jakie daje efekty końcowe w dźwięku.
Ponad wszystkim jest to też pokazanie ogólnie ciekawego i funkcjonalnego urządzenia, a w konsekwencji być może zainspirowanie kogoś do samodzielnych prób w podobnym kierunku. Zwłaszcza, że takie projekty były już wykonywane przez inne osoby, aczkolwiek nie widziałem, aby postawiono kiedykolwiek na takie funkcje, na których zależało mi osobiście. Z tego względu nie biorę odpowiedzialności za ewentualne straty i uszkodzenia powstałe w wyniku nierozważnego kopiowania działań tu opisanych lub nieprawidłowe działanie złożonego finalnie urządzenia.
Niestety nie ma też żadnej gwarancji, że urządzenie złożone na innych komponentach będzie działało. Poprawnie, a nawet w ogóle. Nawet jeśli teoretycznie wszystko powinno działać perfekcyjnie, niestety dopiero w praktyce może się okazać czy tak będzie, czy nie. Dlatego w miarę możliwości należy każde urządzenie i każdy element gruntownie testować w formie praktycznej, metodą prób i błędów, najlepiej na już posiadanym sprzęcie i podzespołach. Właśnie z tego powodu mój projekt powstawał ponad pół roku i obejmował testy na dwóch różnych platformach, z różnymi procesorami, RAMem, kartami WiFi, obydwoma Xonarami, różnymi zasilaczami, zanim wytypowana została finalna jego specyfikacja techniczna.
Zalążki projektu
Audio nierozerwalnie łączy się z zakupami, to raczej rzecz dla każdego oczywista, ale ma też w sobie ogromne pole do popisu w zakresie zrobienia tego czy owego samodzielnie. Mam wrażenie, że jest to przestrzeń, w której niezbyt dobrze czują się rasowi recenzenci sprzętu audio, tudzież osoby którym bardzo łatwo przychodzi wydawanie opinii o sprzęcie, zwłaszcza tym cudzym. Kupienie sprzętu gotowego jest na pewno znacznie prostsze i szybsze, często też po prostu tańsze, jeśli potraktujemy czas jako jednostkę monetarną. Po prostu: mamy potrzebę, więc kupujemy to co jest nam potrzebne.
Zajmuję się tematyką audio w formie recenzji i artykułów od lat, a od niedawna także i samodzielną konfekcją kabli oraz innymi akcesoriami audio, które zrodziły się przede wszystkim właśnie z takich potrzeb własnych. Choć jedno z drugim tak zorganizowałem, aby w żaden sposób nie kolidowało ze sobą, jak to niestety dość często ma miejsce w naszym światku audio, to jednak nie da się słuchać jednego bez drugiego. A że jestem zwolennikiem dużych i wygodnych słuchawek pełnowymiarowych, głównie z racji problemów z typowymi słuchawkami dokanałowymi w zakresie komfortu i trzymania się w uszach, naturalną rzeczą jest potrzebowanie kabli sygnałowych oraz odpowiedniego sprzętu, aby takie słuchawki napędzić i wysterować. Po odsłuchach zaś – aby móc słuchawki bezpiecznie odwiesić.
Mając dawniej ogromną kolekcję starych modeli AKG i poznając w ten sposób dziedzictwo tego producenta, od którego zaczynałem na poważnie przygodę z dźwiękiem i stąd cały mój sentyment, z problemami związanymi z okablowaniem i zabezpieczaniem ponad 30 par słuchawek miałem sporo do czynienia. Aczkolwiek finalnie moja koncepcja podejścia do audio z takiej stricte kolekcjonerskiej i sentymentalnej ewoluowała w minimalizm i maksymalną jakość za rozsądne (choć dla wielu zapewne wciąż niemałe) pieniądze.
Później doszły tematy własnej konfekcji, dzięki czemu uwolniłem się od konieczności skrupulatnego planowana okablowania, by strzelić „raz a dobrze” w ten jeden „najlepszy” pod dany sprzęt. Krok po kroku uczyłem się od podstaw jaki przewodnik w jakiej konfiguracji jakimi cechuje się właściwościami, nabierając doświadczenia i wiedzy w tym zakresie oraz możliwości wchodzenia w coraz to bardziej zaawansowane konstrukcje, mające zastosowania nawet i przy sprzęcie PC. To akurat rzecz warta odnotowania z perspektywy niniejszego projektu.
Doświadczenia i obserwacje związane czy to z wpływem dobrej jakości kabla na dźwięk takiej czy innej pary, czy też jej wymogów co do przechowywania (pamiętne odłożenie K500 na 3 miesiące przez co przez pozycję leżącą (!) nabawiły się terkotania przetworników), czy synergii i wspomnianego już wpływu układu X lub elementu toru Y na dźwięk słuchawek Z, na pewno jednak nie poszły na marne. Bo być może właśnie dzięki temu rodząca się tu koncepcja na własny serwer muzyczny nabrała takiego a nie innego kształtu. Lubię, gdy sprzęt jest dopasowany pod potrzeby użytkownika (tj. w tym wypadku: moje), ale też aby był to sprzęt wyposażony kompleksowo. Do tego nie zajmujący przesadnie za dużo miejsca, a także mający w sobie wciąż pewne możliwości rozbudowy lub rekonfiguracji w razie potrzeby.
Prawdopodobnie widać już na tym etapie do jakiego wniosku dążę ze swoimi wywodami. Do tej pory cały czas rozdzielało mi się to na dwie umowne sfery: sprzętowo-słuchawkową, w której jestem jakby „skazany” na korzystanie ze sprzętu firm trzecich i jestem przeważnie jedynie konsumentem, oraz kablowo-akcesoryjną, gdzie jedynymi ograniczeniami są tak naprawdę moja wyobraźnia, zdolności manualne, stan wiedzy oraz może od czasu do czasu dostępność określonych rodzajów wtyków pasujących do bardzo konkretnych słuchawek lub urządzeń. Nie jest to więc ani tylko i wyłącznie bycie stricte recenzentem, ani stricte sprzedającym, a faktycznym entuzjastą audio i producentem, który rozumie to co słyszy i to co robi. A to z kolei sumarycznie krystalizuje się właśnie przy takich projektach, gdzie wymagana jest wiedza na temat restrykcji i możliwości danego sprzętu oraz połączenia niektórych jego elementów ze sobą, wynikających z chęci osiągnięcia wyrażonych akapit wyżej preferencji co do dopasowania pod użytkownika i niezajmowania przy tym zbyt dużej ilości miejsca. Wykracza to więc daleko poza ramy „tylko” recenzji.
Zresztą, raczej niewiele takich osób decyduje się na budowę od podstaw własnego serwera muzycznego. Zwłaszcza, gdy jest to coś naprawdę budowanego od zera, tj. na poziomie własnych płytek i zaprojektowanych układów elektronicznych. Moje ambicje w tym projekcie ograniczyły się natomiast „jedynie” do wykorzystania sprzętu komputerowego. I co ciekawe właśnie po to, aby od pracy z dźwiękiem na sprzęcie komputerowy uciec.
Audio z komputera ma to do siebie, że jest tematem z jednej strony kuszącym i angażującym w zasadzie już i tak aktualnie użytkowany sprzęt, oszczędzając pieniądze i miejsce na biurku, ale z drugiej też niewdzięcznym, bo uzależnionym od wielu czynników mających swoje przełożenie na końcowy dźwięk. I nie mówię tu o audiofilskich dyskach twardych, grających kablach HDMI, kartach pamięci pod audio i tego typu rzeczach, a czymś realnym i namacalnym dla niemal każdego świadomego użytkownika, a mianowicie kompletnie skopanej architekturze dźwiękowej systemu Windows, która narzuca na nas swoją własną warstwę abstrakcji.
Nie jest więc bezpodstawnym dążenie wielu z nas do oddzielenia się od tego zła i – w moim przynajmniej odczuciu – niekompetencji samego producenta systemu operacyjnego (było dobrze, nagle przestało być). Stąd, ale i nie tylko, tak wiele osób nie wykorzystuje komputera do odtwarzania plików cyfrowych, a zamiast tego inwestuje w płyty CD, winyle, taśmy magnetofonowe. Wszystko byle tylko uciec od PC, ponieważ raz, że nie ma tam tego „czegoś”, co daje się dotknąć na analogu, a dwa, że nawet jeśli już korzysta się z PC jako odtwarzacza muzyki, również nie znika przeświadczenie, że kiedyś to wszystko jednak grało lepiej, albo przynajmniej mogłoby teraz zagrać.
Stąd też popularność DSD i odtwarzania bit-perfect, ale ich wykorzystanie pod systemem Windows nadal może być problematyczne. Albo nie każde próbkowanie działa, nawet jeśli jest obsługiwane, albo pojawiają się dziwne anomalie, albo od czasu do czasu usłyszeć da się jakieś artefakty i tylko dlatego, że producent karty graficznej przez kilka lat nie jest w stanie rozwiązać problemów z latencją od sterowników, a czemu wtóruje sam producent systemu operacyjnego.
W końcu człowiek ma dość i zadaje sobie coraz to bardziej fundamentalne pytania oraz pogrąża się w naprawdę głębokich analizach. Skoro można kupić sobie osobno gramofon, odtwarzacz CD albo deck kasetowy, DACi odtwarzające muzykę z kart pamięci (chociażby mało u nas popularne Aune S18), a nawet odtwarzacze przenośne z funkcjami sieciowymi, które mogą działać sobie bez żadnego problemu bez obecności PC, to czemu nie można mieć czegoś podobnego, ale stacjonarnie? Czy jest urządzenie, które pozwoliłoby na odtwarzanie naszych cyfrowych albumów DSD i PCM w trybie bit-perfect bez żadnego problemu, podnosząc tym samym jakość odtwarzanego dźwięku, jak również obsługiwało Tidala, Spotify, Qobuza, radio internetowe, służyło za transport cyfrowy, miało na pokładzie własnego DACa z wyjściami RCA, wbudowany wzmacniacz słuchawkowy, dawało się konfigurować np. wzmacniaczami operacyjnymi i obsługiwać sieciowo np. telefonem niczym interaktywnym pilotem, a do tego było ultra-ciche i nie konsumowało dużo prądu?
Owszem, są takie urządzenia, np. Auralic Altair G1. Na Audio Show 2019 takowe prezentował np. Melco, którego najtańszy serwer muzyczny N100, nie mający nawet specjalnie wyszczególnionych danych technicznych co do użytych komponentów obliczeniowych, kosztował 8 600 zł, a obecnie 9 900 zł. Ich dwu-dyskowy N1A to już 13 500 zł. A są i droższe. Nie ma tu też mowy o DACu czy wzmacniaczu wbudowanym – wszystko wymaga osobnych segmentów audio i stanowi jedynie część większego systemu, a nie sprzęt o wysokim stopniu integracji, który łączyłby wszystko w jednym. A jeśli już takowy byśmy znaleźli, jestem niemal pewien, że cena byłaby odpowiednia jak na takie funkcjonalności.
I tu zrodziła mi się w głowie absolutnie szaleńcza myśl: czy nie dałoby się zbudować takiej maszyny samemu, we w miarę prosty sposób i nie stawiając po drodze krzyżyka na opłacalności albo poświęcając następne 10 lat życia na studia elektroniczne?
Ku mojemu zaskoczeniu, okazało się że tak.
Inspirację za tym projektem odnalazłem tak naprawdę na swoim własnym forum, gdzie natrafiłem na wymianę doświadczeń w ramach systemu operacyjnego Daphile. Jest to system oparty o ekstremalnie okrojoną kompilację Linuxa, którą da się zainstalować na praktycznie każdym komputerze, również tym starszym.
Jednocześnie szukałem wtedy też jakiegoś zagospodarowania posiadanych przeze mnie starych podzespołów komputerowych, które były już zbyt mocno przestarzałe, aby móc skutecznie pracować w ramach współczesnych zastosowań, ale z drugiej strony jeszcze na tyle sprawne, że żal było je wystawiać na portalach aukcyjnych za marne grosze lub oddawać na złom, zwiększając tym samym zaśmiecenie naszej planety kolejną zbędną porcją elektronicznych odpadów. Ekologia bowiem mimo wszystko także leży mi na sercu i uważam, że ludzie nie dość, że są skrajnie w tym względzie nieodpowiedzialni, to jeszcze wiele rzeczy wyrzucają kompletnie bez zastanowienia się nad tym, czy nie dałoby się znaleźć im ponownego zastosowania.
Tak też zrodziła się kolejna myśl, czy może dałoby się połączyć jedno z drugim i spróbować szczęścia ze stworzeniem osobnego, ultra-kompaktowego i bardzo cichego PC, który stałby się dedykowaną maszyną do odtwarzania dźwięku. Było to interesujące zwłaszcza w kontekście problemów z latencją na komputerach PC z Windows 10 w ostatnich kompilacjach, a o której pisałem przy okazji artykułu o Essence ST i STX. Mając dość komponentów aby stworzyć najpierw jedną, potem drugą platformę testową, rozpocząłem zabawy najpierw z Daphile, potem jednak przechodząc na bardziej zaawansowany i rozbudowany system Volumio x86.
Eksperyment zakończył się sukcesem, choć po drodze było sporo problemów i godzin spędzonych na szukaniu rozwiązań oraz przypominania sobie obsługi Linuxów jeszcze z czasów studiów informatycznych. Co się okazało, a co było tu elementem w zasadzie kluczowym, jakość dźwięku mojego systemu opartego o DAC Pathosa słyszalnie się podniosła względem tego, co oferował PC, nawet w porównaniu z trybem ASIO ze sterowników M2Tech i Native ASIO po złączu koaksjalnym z Essence STX. Dystans po złączu koaksjalnym był relatywnie najmniejszy między serwerem muzycznym a kartą, ale nawet te kilka procent lepszej jakości dźwięku to coś, co udało się osiągnąć praktycznie za darmo i tylko przy użyciu dostępnych pod ręką części elektronicznych. Czyste zwycięstwo i zysk jakościowy za 0 zł (a przynajmniej 0 zł aby móc się o tym przekonać).
W efekcie całość stała się moim (najpierw małym, potem pokaźnych rozmiarów) projektem DIY, w ramach którego zrodziła się chęć złożenia sobie właśnie takowego serwera muzycznego, który działałby na podobnej zasadzie jak Melco, ale „po mojemu” i przy okazji z kilkoma rzeczami, których tenże nie posiadał. I choć teoretycznie nie musiałbym kompletnie nic na jego temat pisać, dzielić się swoimi przemyśleniami, postanowiłem to mimo wszystko uczynić, chociażby przez wzgląd na to, co pisałem we wstępie – aby zostawić coś po sobie i być może kogoś zainspirować.
Geneza nazewnictwa
Ponieważ posiadałem kilka platform i procesorów, mogłem swobodnie nimi żonglować i jednocześnie wpadać co rusz w problematykę nazewnictwa, które pozwoliłoby na czytelne rozróżnienie ich w trakcie testów np. poboru prądu czy porównywania funkcji między sobą. Ostatecznie stanęło na notacji wynikającej z użytych komponentów, a dokładniej karty dźwiękowej i procesora, ale także z miejscem na dodatkowe oznaczenie wariantu chłodzenia, jeśli miałoby być aktywne i sterowane automatycznie. Stąd też stanęło na „ST-3200A”.
Specyfikacja
Ostatecznie całość skrystalizowała się w ramach poniższej specyfikacji i opisu:
- Procesor: 2-rdzeniowy, 64-bitowy
- Pamięć RAM: 2 GB (z możliwością rozszerzenia do 4 GB dla kości typu slim)
- Dysk: 1 TB SSD (z możliwością rozszerzenia do +3 dodatkowych dysków HDD/SSD)
- Sieć:
– 1 Gbit Ethernet LAN
– 2.4 GHz WiFi - DAC: PCM1792A
- DSP: CMI8788
- Stopień I/V: 2x Burr Brown OPA2111KP (wymienne)
- Stopień buforujący: 1x Analog Devices AD825 (wymienny)
- Wzmacniacz słuchawkowy: TPA6120A2 (16-600 Ohm)
- Impedancja wyjściowa (HP OUT): 10 Ohm
- Poziomy wzmocnienia: 3-stopniowa regulacja
- Sterowanie głośnością: regulowana cyfrowo, zapamiętywana niezależnie dla każdego urządzenia audio
- Wyjścia USB: 4x USB 2.0, kompatybilne z UAC2
- Wyjścia S/PDIF: 1x COAX/OPT combo
- Wyjścia analogowe tył: 2x RCA, 1x jack 6,3 mm
- Wyjścia analogowe przód: 1x XLR 4-pin (SE) + 2x XLR 3-pin (SE)
- Wejścia analogowe tył: jack 6,3 mm LO/MIC
- Obsługa częstotliwości próbkowania:
– PCM: do 32-bit / 384 kHz (bit-perfect) włącznie
– DSD: do DSD256 włącznie
– DoP: do DoP256 włącznie - Możliwość upsamplingu maks. do trybu 32-bit / 384 kHz
- Jednoczesna praca wyjść S/PDIF i analogowych w czasie rzeczywistym
- Obsługa typów plików:
– FLAC, WAV, MP3, AAC, ALAC, OGG, PLS etc. - Obsługa radia internetowego
- Obsługa strumieniowania audio z platform: Spotify, Tidal*, Qobuz*
- Obsługa Bluetooth Audio*
- Obsługa dodatkowych wtyczek rozszerzających zakres funkcjonalności urządzenia
- Obsługa strumieniowania muzyki z aplikacji Foobar2000 bezpośrednio do serwera via DLNA (wymagana jest odpowiednia wtyczka dla Foobara i konfiguracja systemu Windows)
- Obsługa strumieniowania muzyki z aplikacji ROON bezpośrednio do serwera (wymaga zainstalowania dodatkowej wtyczki)
- Funkcja backupowania ustawień systemowych i list odtwarzania (wymaga zainstalowania dodatkowej wtyczki)
- Wsparcie dla AirPlay, uPNP, SFTP i DLNA
- Możliwość pracy jako WiFi Hotspot
- Automatyczne montowanie i wykrywanie muzyki z dysków zewnętrznych USB
- Sterowanie: zdalne sterowanie przez WebGUI z dowolnego urządzenia
- Zasilanie: zewnętrzne o mocy do 60W + wewnętrzny konwerter o mocy do 160 W
- Maksymalny pobór prądu: <45W
- Pobór prądu w spoczynku: ok. 33 W
- Pobór prądu w stanie czuwania: 1,9 W
*funkcje dodatkowo płatne abonamentowo
Czym w ogóle jest serwer muzyczny?
Serwer muzyczny to wbrew pozorom obszerne pojęcie. Urządzenie takie może zachowywać się w różny sposób i wszystko zależy od woli i zdolności jego projektanta oraz dostępności (i możliwości) oprogramowania.
Generalnie jest to coś na kształt samodzielnego odtwarzacza przenośnego, którego awansowalibyśmy do formy stricte stacjonarnej i postawili zaraz obok odtwarzacza CD czy gramofonu jako kolejne źródło dźwięku. Różnić się jednak będzie od nich diametralnie sposobem działania jeśli na pokładzie znajdą się dodatkowe funkcjonalności, których te urządzenia nie posiadają.
Zamiast wymiennych nośników z muzyką, jak płyty kompaktowe albo winylowe, mamy tu możliwość odtwarzania wyłącznie plików cyfrowych w formie np. albumów FLAC wgranych na wymienne klucze USB (pełniące wtedy rolę takich jakby właśnie płyt CD), na znajdujący się w środku dysk twardy lub z wykorzystaniem strumieniowych danych sieciowych.
Jednym słowem w środku jest normalny dysk twardy na którym możemy przechowywać swoją muzykę i ją odtwarzać, ale też podejść i wpiąć pendrive z muzyką, który także zostanie wykryty i automatycznie dodany do biblioteki jako osobny katalog. Jeśli znudzi się nam muzyka jaką posiadamy, do gry wchodzi radio internetowe, muzyka z serwisów Spotify czy Tidal, albo strumieniowe przesyłanie danych z PC za pomocą serwera DLNA, co w efekcie rozszerza serwer do roli odtwarzacza sieciowego i (przynajmniej częściowo) zwalnia nas z konieczności trzymania dodatkowego urządzenia audio przy komputerze.
Koncepcja All-in-One
ST-3200A budowałem z intencją, aby w swojej finalnej formie łączył w sobie jak największą ilość urządzeń. Przeglądałem Internet w poszukiwaniu takiego wszystkomającego urządzenia i okazało się, że takich urządzeń z reguły nie ma, a co najwyżej są takie, które mają tylko pojedyncze funkcje lub najwyżej kilka, ale nie wszystkie. Sprzęt ten zastępuje lub emuluje jednocześnie przynajmniej:
- transport cyfrowy lub konwerter
- bardzo podstawowy NAS
- integrę słuchawkową lub osobny zestaw DAC + wzmacniacz słuchawkowy
- odtwarzacz sieciowy
- odtwarzacz USB/SD
Powiedzmy że nie pójdę ponownie w sferę urządzeń typu Melco itd., a zamiast tego skupię się na urządzeniach kojarzonych przeze mnie z takich ról w jakkolwiek sensownych jeszcze pieniądzach. Byłyby to odpowiednio np.:
- Matrix Element H (ok. 1300) jako dobry nadajnik sygnału USB.
- WD My Cloud EX2 Ultra + dysk SSD 1TB (650 + 500 zł) jako podstawowy NAS oraz identyczny nośnik danych.
- Aune X1S + X7S (1300 + 1200 zł) jako bardzo dobry odpowiednik DACa z wyjściem COAX i wzmacniacza z regulowanym wzmocnieniem oraz niesymetrycznym XLRem na wzór zaprojektowanego przeze mnie.
- Bluesound Node 2i (2500 zł)
- Aune S18 (katalogowo 2200 zł gdy był produkowany)
Suma wszystkich powyższych elementów toru = 9 650 zł. A do tego nie są tu liczone żadne dodatkowe kable, które byłyby niezbędne do podłączenia tego wszystkiego ze sobą. Gdyby je liczyć, moglibyśmy umownie zaokrąglić całość do 10 000 zł.
Plus nie mówiąc jeszcze nawet o tym ile miejsca zajmowałyby wymienione urządzenia. Aune z serii X na pewno postawilibyśmy jedno na drugie, choć najlepiej wzmacniacz byłoby trzymać wyżej z racji dużej temperatury pracy. Należałoby jeszcze uwzględnić przestrzeń wokół zasilaczy zewnętrznych, które także lubią się grzać (i niemiłosiernie bzyczą). Element H wymagałby komputera stacjonarnego, więc posiadacze laptopów już są na trochę przegranej pozycji i musieliby szukać innego rozwiązania. Dysk WD prawdopodobnie znalazłby się gdzieś przy routerze, więc nie byłby specjalnym problemem, ale nie wiem czy udałoby się go połączyć z bezproblemowo z Node 2i. Ten zaś wylądowałby na górę Aune S18 i pewnie znalazłby się obok piramidy X1S + X7S.
Tymczasem wszystko to zmieściło się w jednym urządzeniu o wymiarach 435 x 100 x 320 mm. Na tym właśnie polegał cały sens tego projektu. Do tego mój serwer:
- nie potrzebuje komputera do pracy, choć teoretycznie Node 2i także nie,
- ma dodatkowe wyjścia USB zamiast jednego w Node i Element H,
- ma dodatkowe wyjścia XLR 3-pin, czego brakuje w X7S,
- posiada cyfrowe sterowanie głośnością, co eliminuje problemy z brakiem poprawnego balansu jak na typowym potencjometrze analogowym,
- posiada cyfrowe sterowanie gainem, co teoretycznie jest znacznie bardziej bezpieczne niż przełączniki DIP w X7S,
- ma możliwość zamontowania mocniejszej anteny w razie problemów z zasięgiem,
- za pomocą wymiennych OPA można diagnozować problemy z sekcją analogową oraz kształtować i polepszać brzmienie, czego na żadnym z wymienionych tu urządzeń zrobić się nie da, o ile nie wejdzie się potencjalnie z bardzo zaawansowanymi modyfikacjami, co może spowodować więcej szkód niż pożytku,
- wymienne komponenty pozwalają na dostosowanie specyfikacji pod swoje wymagania, a dodatkowo umożliwiają samodzielny serwis,
- pobór prądu będzie znacznie mniejszy niż w przypadku całego toru sumarycznie tu wymienionego.
Czyni to więc koncepcję „wszystkomajki” bardzo skuteczną i kuszącą, choć mającą ogromne wymagania co do odpowiedniej integracji w ramach jednej obudowy. Warto też zapamiętać kwotę 10 000 zł, jaka została tu przeze mnie wyliczona, bowiem za parę akapitów wrócę do tego tematu od strony kalkulacji i opłacalności. A także jedną rzecz: „wszystkomajka” gra wyraźnie lepiej od X1S + X7S, plasując się na poziomie przynajmniej Astell & Kern SA700 w bezpośrednich porównaniach.
Niewykorzystane możliwości i pomysły
Nie znaczy to jednak, że na tym możliwości potencjalnego konstruktora się kończą. W urządzeniu istnieje jeszcze trochę potencjału, ale uznałem wdrożenie niektórych funkcji i opcji za zbyt kosztowne, czasochłonne lub po prostu niepotrzebne. Przytoczyć jednak je można, bowiem zwiększa to tylko ewentualną świadomość na co stać takie urządzenia i czy w ogóle warto obrać jakąś konkretną ścieżkę.
Akurat litraż mojej obudowy nie pozwala na wiele, więc rezygnacja z tego czy owego była formalnością. Tak samo na wiele nie pozwolił mój upór, aby trzymać się pierwotnych swoich założeń i wytycznych. Rzeczy, których m.in. właśnie przez brak miejsca czy potrzeby nie zastosowałem i nie zaimplementowałem, to:
- funkcja odtwarzacza CD i CD rippingu,
- programowalny DSP na bazie modułu od miniDSP,
- filtrowanie przednich wyjść audio,
- użycie np. SC808 jako głównej karty dźwiękowej dla maksymalnej jakości dźwięku „wprost z pudełka”,
- sterowanie konwencjonalnym pilotem,
- konfiguracja na system wielokanałowy (przystawka HDAV H6)
Oczywiście nie znaczy to, że ktoś inny również nie powinien, ale omawiając moje decyzje po kolei:
- Odtwarzacz CD i CD ripping
Mam przynajmniej dwa napędy optyczne zdatne do wykorzystania w tym celu, ale sęk w tym, że nie korzystam z płyt CD. Wyraźnie widać, że cała maszyna jest zoptymalizowana pod obsługę plików cyfrowych i streamingu, więc temat CD po prostu nie jest mi potrzebny do szczęścia. Zwłaszcza że musiałbym organizować go tuż przy karcie dźwiękowej i najpewniej zamiast wyjść XLR, o ile w ogóle udałoby się z tym wszystkim zmieścić. - Moduł DSP
Instalacja modułu od miniDSP i jego konfiguracja na wzór APO Equalizera była bardzo kuszącą opcją, ale niestety w żaden sposób nie była nigdy przeze mnie testowana. Co więcej, sygnał taki wykorzystałyby głównie słuchawki, a moduł ten posiada jedynie wyjścia RCA. Jeśli więc miałby sens zastosowania w tej maszynie, to stricte pod kolumny lub przy zastosowaniu osobnego wzmacniacza. - Filtrowane wyjścia
Implementacja modułu adaptacyjnego jest możliwa na przednich XLR-ach, ale nie zdecydowałem się na taki manewr. Przede wszystkim dlatego, że mogę taki moduł przyłączyć w dowolnej chwili, a po drugie, że przy gnieździe XLR będę wykorzystywał słuchawki, które więcej skorzystają na czystej mocy wyjściowej, aniżeli filtracji. Dla kogoś jednak może być to bardzo ciekawa sprawa, jeśli zależy mu na przednim panelu, ale notuje mocne przebicia w tym zakresie. Znów jednak, rekomendowałbym zewnętrzny filtr. - SC808 jako główna karta dźwiękowa
O ile karta oferuje faktycznie lepszy dźwięk wprost z pudełka ponad ST/STX, trzeba byłoby ją kupić i modlić się o brak problemu ze znikaniem. Do tego wysoki gain bez możliwości regulacji, duża impedancja wyjściowa i niemożność zastosowania sensownych wyjść z przodu urządzenia. Stąd te pieniądze, które musiałbym w kartę zainwestować, wolałem przeznaczyć na modyfikacje już posiadanej. Dla osoby postronnej jednak – jeśli tylko słuchawki posiadane będą pasowały, po zastosowaniu 3x SS V5i lub lepszych kości uzyska się Conductora V2+ po taniości jak pisałem. O ile nie będzie ryzyka, że riser PCIe wprowadzi na karcie zakłócenia, tak jak taśmowy riser PCI wprowadził mi na ST.
Można też zamiast tego wszystkiego zastosować np. SC8000, ale dla mnie osobiście odpada ona ze względu na brak wymiennych OPA, choć dla kogoś, kto nie używa jej ze względu np. na brak sterowników (powinny działać na niej UniXonary) lub gniazda PCI, będzie to świetna i tania opcja na sekcję analogową do takiego serwera. Zwłaszcza, że kątowe risery PCI są tanie i – jak się okazuje w moim przypadku – skuteczne. - Sterowanie zdalne po pilocie
Od ręki mógłbym tu wykorzystać (zaskoczę) kartę telewizyjną Leadtek WinFast TV2000XP. Problem w tym, że zajmowałaby tylko slot PCI przeznaczony na WiFi, generowałaby temperaturę, a do tego byłoby to kompletnie niepotrzebne +5 W tylko po to, aby sterować 5% funkcji tego urządzenia konwencjonalnym pilotem. Świetną alternatywą byłby za to moduł od np. SilverStone, który montuje się albo w gnieździe PCIe (odpada z racji ogromnego chłodzenia zakrywającego gniazda) albo napłytowym USB (odpada z racji zasłaniania przez kartę dźwiękową). Co prawda jest tam możliwość jedynie sterowania włączaniem, wyłączaniem i resetem, ale zawsze to coś dla osoby lubiącej mieć wszystko pod ręką. Możliwe, że zadziałałby jeszcze jakiś pilot wielofunkcyjny z donglem USB, ale nie jestem w stanie potwierdzić tego przypuszczenia. Szkoda mi też przyznam pieniędzy, aby eksperymentować w ten sposób. - Konfiguracja na system wielokanałowy
Istnieje bez żadnego problemu możliwość integracji specjalnej przystawki HDAV H6, która była oferowana jako opcja dla Xonara ST i w ten sposób stworzenie sobie wielokanałowego systemu odsłuchowego, ale niestety nie posiadam takowej, jak też nie jestem zainteresowany takimi głośnikami. Sprzęt miał być stricte pod słuchawki i kolumny stereo.
Dla osoby chcącej pójść maksymalnie za ciosem w temacie elementarnej jakości dźwięku po analogu, mimo wszystko pozostaje próbować szczęścia z SC808 lub inną kartą, która będzie w stanie zaoferować dobrą jakość dźwięku. U mnie odbyłoby się to zapewne przy innym chłodzeniu i rodzaju risera, a także rezygnacji z wyjść frontowych, uzyskując w ten sposób na SS V5i-D praktycznie jakość Conductora V2+ z gorszą sceną. Essence ST okazał się dla mnie osobiście wciąż jednak praktyczniejszy w takim typowym użytkowaniu i zastosowaniach, jakie dla tejże maszyny przewidywałem, ale może dla kogoś nie będzie to argument.
Istnieje jeszcze jeden, absolutnie karkołomny koncept, który sprowadzałby się do umieszczenia w środku… kompletnego DACa stacjonarnego i wyprowadzenia mu gniazd na tył oraz przedłużeń na przód, w tym długi pręt z pokrętłem do potencjometru czy przelotkowe wyjścia na przedni panel audio. Na pytanie jednak, czy ma to jakkolwiek sens, tu już odpowiem, że kompletnie nie. Nie ma to najmniejszego sensu, bo potem takiego urządzenia nie będzie jak sensownie sprzedać, jak też z reguły nie ma żadnej potrzeby wydłubywania go z obudowy, która już jest na gotowo. Chyba że zajmuje nam to tak dużo miejsca, że chcemy przeprowadzić dużą integrację, np. w ramach większej obudowy. Zabawnie jednak wtedy musi wyglądać jego podłączanie, np. via USB. Dałoby się to jakoś zorganizować, może lutować bezpośrednio do płytki DACa, ale znów… nie ma sensu.
Zastosowanie karty dźwiękowej ma tu go znacznie więcej, ponieważ to urządzenie nie może funkcjonować bez komputera. Musi być obudowa, platforma sterująca, zasilanie. DAC zewnętrzny może, bo w większości ma to już wszystko w sobie, także zasilanie. Przykładowo takie Aune S6. Tam jest praktycznie wszystko. Nic tylko rozdłubać na części pierwsze i wyprowadzić na przedni panel ekran (może rozwiązałoby to jego problemy z zakłóceniami?), potencjometr itd. Byłoby to bardzo ambitne zintegrowanie zewnętrznego DACa z komputerem do jednej, zwartej formy. Ale znów, tak jak pisałem, trochę bezcelowe, o ile nie zależy nam na maksymalnej oszczędności miejsca. Aczkolwiek wtedy można zastanowić się, czy nie taniej i prościej byłoby kupić jakiś inny mebel albo podstawkę piętrową…
W każdym razie, podsumowując:
- zastosowanie karty dźwiękowej w takiej maszynie – ma duży sens,
- ciężkie modowanie tejże karty – do pewnego momentu ma sens,
- modowanie zewn. DACa do postaci montowalnej w takiej maszynie – raczej nie ma sensu.
Wybór już co, jak, gdzie i po co pozostaje jak zawsze w rękach docelowego użytkownika, który dobiera sobie sam taki sprzęt, który najbardziej go interesuje i jest mu potrzebny. Dodać wystarczy tu tylko, że równie dobrze zastosowanie wspomnianego Aune S6 czy X1S bez wydłubywania z obudowy fabrycznej oraz malutkiego PC w płaskiej obudowie, da nam generalnie to samo, a zaoszczędzi się spore pieniądze na customowej obudowie i konwersji w jedno urządzenie.
Na pewno nie wykorzystałem w obecnym kształcie limitu opcji. Można pójść jeszcze o ten przysłowiowy jeden krok dalej i zamontować na pokładzie kartę wielokanałową, a nawet programowalny DSP i stworzyć w ten sposób sobie coś na kształt sprzętowego APO Equalizera. Również z perspektywy HD800 byłoby to kuszące, ale musiałoby być zrealizowane w nieco inny sposób technicznie i prawdopodobnie albo integrować w środku kilka urządzeń jednocześnie, albo funkcjonować jako źródło RCA pod osobny wzmacniacz, tudzież tor kolumnowy, gdzie moduł pracowałby bardziej jako korektor pomieszczenia.
W moim przypadku jedynymi słuchawkami, z jakimi wykorzystuję notorycznie equalizację, są LCD-i3, natomiast problemem jest fakt, że czynię to via USB (Cipher) oraz BT (CBT), toteż obecność modułu sprzętowego miałaby zastosowanie raczej głównie via RCA, a więc taka sytuacja sprzyja jednoznacznie systemowi kolumnowemu. Tu zaś mam troszkę inne potrzeby i wymagania, oscylujące wokół rozwiązań stereo i operujących na samodzielnie i mozolnie kreowanej akustyce pomieszczenia.
Przewaga nad PC
Zastanawiać będzie kwestia, czy nie prościej byłoby władować jakąś kartę dźwiękową do już użytkowanego komputera lub kupić taniego DACa na USB i mieć generalnie „to samo”?
Podobnież dywagować można nad sensem jej budowy w kontekście już posiadanego sprzętu, zwłaszcza wyższej znacznie klasy, co także potrafi rzutować na zasadność. Naturalnie każdy użytkownik ma swoje własne potrzeby i mam je także ja sam. Opisałem je już poniekąd wyżej w założeniach projektowych, ale nie odpowiedziałem na jedno fundamentalne pytanie: po co?
Idea przejścia na osobne, dedykowane muzyce urządzenie, łączy się bardzo ściśle z samą istotą oderwania się kompletnie od środowiska Windows i jego ograniczeń oraz problemów. Można to sprowadzić do bardzo ważnych i już faktycznie namacalnych atutów:
- uniezależnienia się od kaprysów i aktualności sterowników
- kompletnego uniezależnienia się tym samym od aktualizacji Windows i coraz to bardziej niechlujnie napisanych kompilacji
- ucieczki z warstwy DirectSound systemu operacyjnego i od systemowego miksera
- permanentne rozwiązanie problemów z latencją/trzaskami od procesów systemowych i sterowników do innych urządzeń
- przejścia na stałe na tryb odtwarzania bit-perfect, bez konieczności stosowania sterowników ASIO (przypomnę że takowym nie jest WASAPI)
- maksymalnego ulepszenia jakości dźwięku płynącego po wyjściach cyfrowych
- wykreowania przy okazji dodatkowego toru do celów testowych lub dedykowanych pod określony efekt synergiczny
Jakiś czas temu popełniłem bardzo obszerny artykuł na temat konfiguracji kart Essence ST i STX pod kątem wyciągnięcia z nich maksimum potencjału, głównie za sprawą natywnych sterowników ASIO, które w przeciwieństwie np. do WASAPI, ASIO4ALL czy trybu Kernel Streaming (Foobar) dają prawdziwy dźwięk bit-perfect, który działa niezależnie od usługi Windows Audio i całej warstwy miksującej systemu, która wprowadza swego rodzaju efekt kompresji. Opisałem takie sterowniki jako jedyny słuszny sposób użytkowania tych kart, ale też urządzeń audio w ogóle.
Dlaczego więc nie umieścić takiej karty w już użytkowanym PC i nie pracować w trybie ASIO? Owszem, tak było wielokrotnie taniej i prościej, ale nadal ma to swoje wady, nawet nie takie, które tyczą się mojej własnej sytuacji, a bardziej ogólne, dotykające wszystkich nas.
Wada podstawowa, to sterowniki, uzależnienie od nich i podatność na problemy z działaniem. Tu także jest to cecha ogólna. Zarówno STX jak i mój Pathos Converto MKII mogą pracować w trybie ASIO. Ba, nawet podstawowy Realtek zintegrowany na płycie może mieć zainstalowane specjalne sterowniki z ASIO. Z tym że potrzebują do tego tychże właśnie sterowników, które nie zawsze działają tak jak bym sobie tego życzył. Na STX zdarza mi się słyszeć trzaski wynikające z podatności na latencję, która to z kolei jest spowodowana przez sterowniki nVidii i sam Microsoft. Internet jest zalany dosłownie informacjami o strzelających w górę opóźnieniach procesów sterownika graficznego i jądra systemowego (ntoskrnl). Obaj producenci współpracują w tym zakresie i badają problem już z trzeci rok, bez żadnego rezultatu. Jest to żenujące i irytujące, zwłaszcza że problem zaczął się od którejś dopiero kompilacji systemu (bodajże 180x, wynotowując z pamięci).
Powoduje to, że STX, nawet pracując w trybie ASIO, od czasu do czasu notuje pojedyncze trzaski w tle podczas odtwarzania. Czasami Foobar stwierdzi, że jakiś plik nie może być odtworzony, po czym ponowne jego kliknięcie powoduje już poprawne odtworzenie. Na tym jednak problemy jako takie się kończą. Zaletą jest nie tylko lepsza jakość dźwięku, ale też niewrażliwość jak zauważyłem na problem z „piskiem śmierci”.
Wystarczy więc teraz, że nastąpi jakaś wielka zmiana w oprogramowaniu i cała ta konfiguracja może zacząć zachowywać się niestabilnie. Mało prawdopodobne, ale jednak możliwe. Plus wymaga ciągłego przełączania się na tryb DirectSound, jeśli chcemy odtworzyć coś systemowego, jakiś film, albo po prostu zamknąć system bez konieczności fizycznego demontażu karty, aby Windows się uruchomił bez błędów.
Pathos jest w tym względzie lepszy, bo pracując na USB również posiada swoje własne sterowniki ASIO, ale mam spore wątpliwości, czy jest to realny tryb tego typu, choć także ma pewien wpływ na jakość dźwięku. Plus czasami jest problem z rozpoczęciem nowego strumienia dźwiękowego, jeśli w międzyczasie muzyka była zapauzowana, a oglądałem np. coś w Internecie w trybie DirectSound i chciałbym wrócić do słuchania via ASIO.
Zintegrowany Realtek w teorii jest opcją najbardziej minimalistyczną i ekonomiczną, ale jakość dźwięku po wyjściu optycznym, jak i oczywiście po analogu, nie należy do grona rozwiązań, których każdy audiofil pragnie i szuka. Delikatnie mówiąc.
Przydałoby się więc coś, co zaoferuje przynajmniej sygnał cyfrowy należytej jakości w trybie bit-perfect do Pathosa i możliwości zaspokojenia się wyłącznie podstawowymi możliwościami płynącymi z bycia transportem cyfrowym oraz magazynem muzycznym. Wszystkie te wymagania załatwia serwer. Nie mam żadnych planów ruszania STX-a z PC, zwłaszcza, że nie będzie możliwości wprowadzenia sygnału audio wprost z warstwy miksera Windows do serwera, ponieważ jako DAC może on pracować w mojej konfiguracji tylko z wyjściami, nie wejściami. Choć teoretycznie mógłby, byłoby to zbyt problematyczne moim zdaniem i stąd uważam, że nie miałoby sensu. Pozostaje więc tryb DLNA, ale wyspecjalizowany w jednym strumieniu z jednej, konkretnej aplikacji to umożliwiającej.
Przewaga nad kontrolerem USB
Obecność w domu takiego serwera co prawda wciąż nie wyklucza egzystencji i używania kontrolera lub konwertera USB z prawdziwego zdarzenia i mimo wszystko trzymania się PC, ale przy całej wygodzie, jaką oferuje (możliwość przekierowania każdej czynności, programu i gry na wysokiej jakości sprzęt audio) będzie miał on wciąż przynajmniej część ograniczeń z tych opisanych wcześniej.
Choć sam tkwiłem jeszcze niedawno w sferze rozważania osobnych kontrolerów, także w formie kart rozszerzeń, jak np. Matrix Element H, nie zdecydowałem się na taki zakup z kilku powodów.
Po pierwsze, najprawdopodobniej musiałbym go dokonać w ciemno. Nie jestem pewien czy udałoby się go wypożyczyć, a już na pewno większości takich modułów. Cena takich układów, zakładając odpowiednią klasę urządzenia i jakiekolwiek zapewnienie sobie wsparcia, to koszt ponad 1000 zł. Jest to kwota, którą można wydać w lepszy sposób, jak np. na sensowny kabel, albo doinwestowanie budowanej tu maszyny, zależnie od potrzeby i możliwości.
Po drugie, korzystając z takiego kontrolera pod systemem Windows jestem wciąż uzależniony od kaprysów systemu operacyjnego i kompatybilności całego urządzenia jako takiego, a część problemów, które w normalnych warunkach nie powodowałyby widocznych i słyszalnych kłopotów z dźwiękiem, będzie w takiej formie bardzo dawała się we znaki. Dodatkowo komputer muszę za każdym razem włączyć, muszę przy nim być aby go obsługiwać. Nie mogę bezkarnie usadowić się na kanapie i po prostu słuchać muzyki z „pilotem” w ręku, o ile nie dokupię kolejnego urządzenia tego typu specjalnie do PC. A to oznacza kolejne sterowniki.
To zaś to właśnie trzecie – jestem uzależniony od wsparcia sterowników przez producenta. Załóżmy, że wychodzi nowy system operacyjny, albo zmienia się technologia. Stare urządzenia będą porzucane, czy się to nam podoba, czy nie. W serwerze który tu opisuję karta dźwiękowa pracuje na starej szynie PCI. Tej pierwszej, zwykłym starym PCI. Żaden nowy komputer nie posiada już tych gniazd i wymagane byłoby użycie być może jakiegoś dodatkowego kontrolera, przy którym problemy ze sterownikami i działaniem są na ogół jeszcze większe. Teoretycznie każde inne urządzenie może nagle przestać działać, choć pod dane złącze pasuje i jest jakkolwiek sprawne technicznie. Historia taka ma miejsce nawet w ramach przedmiotu opisu, bowiem zainstalowana na pokładzie karta WiFi była przeze mnie uznana za zużytą i nie działającą poprawnie, czasami w ogóle.
Oczywiście zawsze można dany komponent sprzedać i kupić sobie coś innego, lepszego, może droższego. Pytanie tylko po co? Nie można po prostu używać tego co się już ma? Czy za każdym takim razem musimy mimowolnie wchodzić w ciąg konsumpcjonizmu i pogoni za nowością? Nie musimy. Zwłaszcza, że w obecnej sytuacji (artykuł jest pisany w okolicznościach pandemiczno-kryzysowych) na rynku panuje niedobór elektroniki i ceny lubią sobie galopować w górę, a ludzie, w tym ja, coraz więcej uwagi poświęcają ekologii i redukcji m.in. e-odpadów.
O tym, że wcale nie są to wyimaginowane problemy i szukanie sobie argumentów na siłę, niech świadczy np. sprawa ze sterownikami do Conductora V2+. Producent zakończył jeśli dobrze pamiętam wsparcie na sterownikach w wersji 2.xx. Taką paczkę dostał od producenta nadajnika USB, firmy XMOS, i taka też była potem dystrybuowana. Sam pracowałem na sterownikach 3.20 od Aune S6, które dawały… lepszą jakość dźwięku. Wyższe wersje, także od Aune, powodowały już zmiany na moim zdaniem gorszy efekt końcowy. Obecnie zaś, po zakończeniu produkcji CV2+, nie widzę kompletnie sterowników na stronie producenta do tego modelu. A ponieważ od czasu jego sprzedaży zmieniła się kilka razy kompilacja systemu Windows, a także wprowadzono problem z latencją, trudno w ogóle byłoby mi nawet zgadywać zachowanie się urządzenia. Zakładam, że byłby pewnie wszystko w porządku, ale nadal jest to tylko założenie. A co jeśli nagle zmienimy system? Wychodzi Windows 11 albo przesiadamy się na MacOS lub Linuxa? Czy będziemy mieli wsparcie? Czy dojdziemy może do ściany i będziemy musieli kupić specjalnie kontroler USB tylko po to, aby podłączyć pod niego inne urządzenie USB? Czy może pójdziemy o krok dalej i zaryzykujemy z jakimś modułem DIY, jeśli dane urządzenie na to w ogóle pozwoli, aby zamontować je do środka w miejsce starego? Po prostu za dużo znaków zapytania przy zbyt drogim sprzęcie. Zwłaszcza, że kupuje się go nie na jeden sezon, a jak już to na lata.
Oczywiście są to tylko i wyłącznie moje własne przemyślenia i wątpliwości. Osobiście nie mam absolutnie nic do osobnych kontrolerów i ich zasadności. Nie miałbym też nic przeciwko używaniu takowego w swoim systemie. Powiedzmy jednak, że przez pryzmat mojego przywiązania do sprzętu z perspektywy odbycia na nim setek recenzji i poznania zarówno jego, jak i ustalania przez niego linii bazowej do każdej pojedynczej oceny i opinii, lubię mieć mimo wszystko dodatkową pewność i stabilność, a te 1400 zł, które czekałoby mnie na wydanie na wspomniany tu Element H (jako przykład), raczej widziałbym jako inwestycję w lepsze komponenty lub kable do budowanego tu serwera. Bo sumarycznie może wyjść tak, że efekt końcowy wcale nie będzie gorszy od tego, co mógłby mi zaoferować taki kontroler.
Kalkulacja i opłacalność
Na pewno trzeba będzie brać pod uwagę też kwotę projektu. Nie do końca jest to sposób na „oszukanie systemu”. Owszem, będzie tu współczynnik ceny do możliwości wciąż korzystny, ale zdradzę tylko na tym etapie, że projekt kosztował mnie tylko kilka tysięcy złotych. Do tego części i same modyfikacje nie są tzw. „off the shelf”, czyli dostępne normalnie w handlu.
Niemniej wciąż, biorąc pod uwagę koszt urządzeń Melco, które przytaczałem we wstępie, a także fakt, że nie mają kompletnie sekcji analogowej, jest to bardzo mało. Tak samo biorąc poprawkę na koszt różnych urządzeń, które także podawałem, a które mogłyby wygenerować podobny zakres funkcjonalny. Cały czas kręci się to wokół kwoty ok. 10 000 zł. Dostajemy bardzo dużo podobnych funkcji i możliwości, jednocześnie mając tu do dyspozycji de facto pełnoprawną integrę słuchawkową, dającą dźwięk analogowy i cyfrowy jednocześnie oraz cały czas podatną na modyfikacje w razie konieczności. Wszystko przez fakt modularności i dostępności części. Ale też przez wzgląd na to, że od pierwotnego kształtu maszyny do finalnego dzieliło mnie sporo czasu i przede wszystkim podejmowanych później decyzji.
Dlatego też zanim w ogóle przystąpi się do konstruowania takiego urządzenia, absolutnie kluczowe jest określenie naszych prawdziwych potrzeb i celów, jakie chcemy zrealizować, a także odpowiedzieć na pytanie, czy da się kupić jakieś gotowe urządzenie, które mogłoby zwolnić nas z procesu budowania lub zaoferować nawet więcej i lepiej. Ten etap przejść musiałem również ja sam, zwłaszcza że serwer taki można stworzyć na kilka sposobów i z różnym pakietem możliwości.
Ważnym aspektem było dla mnie to, aby mieścił się całościowo na jak najmniejszej powierzchni, tj. wszedł do z góry ustalonej obudowy o małym litrażu i nie blokował potencjalnych modyfikacji, serwisu i ulepszeń. Jednocześnie aby był obdarzony jak największym stopniem zagęszczenia/integracji podzespołów i elementów w środku przy zachowaniu faktu modularności. Cel był taki, aby nie zwiększać niepotrzebnie rozmiarów tejże obudowy (i tym samym kosztów), która miała komponować się z kolei z posiadanymi już komponentami, ale też uniewrażliwić całe urządzenie na ryzyko potencjalnych awarii i zużycia podzespołów od pracy czysto pasywnej. Od razu też aby uniknąć stworzenia „piramidki” urządzeń, tak jak w akapicie o koncepcji All-in-One.
Modularność to zresztą największa zaleta części PC, zostawiając po drodze mnóstwo furtek. Przykładowo, gdy potrzeba mi będzie jakimś cudem więcej RAMu, wystarczy zastosować kość niskoprofilową i mogę rozszerzyć ją sobie do 4 GB (dokładnie to ok. 3,5 GB ze względu na adresowanie x86), albo po prostu zmienić chłodzenie i użyć zapasowej kości Geila. Nigdy jednak nie zdarzyło mi się, że miałbym problem z pracą tego urządzenia nawet na 1,5 GB RAM. Ok. 1,2 GB pochłania sam system zaraz po uruchomieniu, zostawiając pozostałą przestrzeń na systematycznie alokowany RAM-dysk (RAMplay). Wystarczy więc nawet jedna, szybka kość o dużej prędkości i niskim timingu, aby urządzenie działało bez żadnego problemu. Nawet jeśli użyjemy kości tylko 1 GB, ogromna większość plików systemowych i tak znajdzie się w pamięci wraz z domyślnym RAM-dyskiem, a tylko niektóre zostaną załadowane na dysk. Jeśli jest to szybki dysk, np. SSD, w ogóle tego nie odczujemy ani przy ładowaniu, ani przy użytkowaniu.
Podkręcenie istniejącego procesora lub jego wymiana na inny na podstawkę LGA775 rozwiąże problem potencjalnego braku mocy obliczeniowej, który znów nie istnieje, bo nawet wykorzystanie serwera do odtwarzania plików DSD256 nie generuje wykorzystania procesora więcej niż na poziomie 40-50%. Nawet na Athlonie X2 5200+ po underclockingu nie uzyskałem (co prawda trochę toporną wtyczką) większego średniego zużycia procesora niż bodajże 73%. Wciąż jest więc zapas.
Lepsza sekcja analogowa teoretycznie także nie jest problemem. Od ręki kłania się wymiana OPAMPów na inne, w tym wysokie dyskretne. Choć fakt faktem niewiele będzie tutaj do ugrania względem Essence ST po modyfikacjach, to jeśli wciąż byłoby za mało, pozostaje zastosowanie innej/lepszej karty dźwiękowej wedle uznania.
W Melco wszystko jest z tego co widziałem bardzo zintegrowane i tworzone specjalnie na potrzeby tych urządzeń w formie gotowej, SoC. Istnieją oczywiście urządzenia bazujące na zwykłych PC, o ile dobrze pamiętam pokazywał takowe Core Audio na AVS 2019 pod postacią np. Daido Reference (ok. 4000 EUR), ale znów – wszystko to kosztuje i posiada w sobie cały czas samodzielnie stworzone na własne potrzeby elementy. Core Audio miał jak dobrze kojarzę zrobiony od zera zasilacz i modyfikacje zegarów, a co dla spełnienia norm ATX wbrew pozorom jest sporym wyzwaniem. I kosztem. Ich topowy, wystawiony tam serwer tego typu kosztował 8000 EUR. Nie licząc, że w skład systemu wchodzi jeszcze osobny zegar i DAC.
Skompletowanie takiego systemu, o ile może grać fantastycznie i pozwalać na pracę z bardzo gęstym materiałem, oscyluje cały czas jak pisałem wcześniej wokół kosztów i perspektywy ich interpretacji przez użytkownika (cena kontra wartość – price vs value). Będę o tym zapewne nie raz i nie dwa przypominał. Dobry projekt DIY to policzony projekt DIY. Zarówno w parametrach, jak i pieniądzach. Najlepiej jest wszystko sobie rozpisać i wyliczyć określone kombinacje podzespołów, modyfikacje, a następnie z czego można zrezygnować lub co gdzie przesunąć. Jeśli względy wizualne są bez znaczenia, można albo zaoszczędzić w tym obszarze, albo więcej pieniędzy dać na sekcję analogową, czyli zamiast np. karty X, kupić kartę Y ze znacznie lepszymi OPA. Konfiguracji i możliwości rozplanowania budżetu jest naprawdę wiele, ale wszystko to i tak łączy się nierozerwalnie z określeniem własnych priorytetów. Jeśli mówić o wartościach bezwzględnych, będą na pewno ludzie, dla których taki sprzęt, nawet jakby kosztował 3 cyfry zamiast czterech, będzie za drogi. Ale jeśli brać pod uwagę, że mówimy tu o urządzeniu bardziej kompleksowym, autonomicznym, spersonalizowanym, zbudowanym dosłownie „z tego co się ma”, specyfikacją i zakresem funkcji nieodbiegającymi od tych „wielkich”, z DACiem na pokładzie, wzmacniaczem słuchawkowym, kompletem wyjść, wymiennymi OPA, wymiennymi komponentami, to robi się w istocie ciekawie.
Pytanie – czy kwota 10 tysięcy, którą wcześniej wyliczyłem, powinna być progiem opłacalności projektu lub limitem inwestycyjnym? Czy da się taniej znaleźć coś podobnego? Zapewne coś wyszukać się da. Sam oparłem się na po prostu jakkolwiek znanych mi urządzeniach. Możliwe iż coś zbudowanego na Raspberry Pi dałoby sobie także radę, a kupione jako sprzęt komercyjny nie wyniosłoby – wraz z DACiem – nawet tych np. 5000 zł. Także niech zawsze limitem będzie kwota sprzętu gotowego o podobnych lub identycznych możliwościach, jak i wzięcie poprawki na własny czas konieczny do poświęcenia celem zbudowania całości.
Zasada działania i obsługa
Zbudowane przeze mnie urządzenie w obsłudze jest stosunkowo proste. Posiada tylko jeden przycisk – zasilający. Tuż nad nim znajduje się dioda sygnalizująca stan pracy.
Z przodu umieszczone są 3 gniazda XLR, dwa dla tzw. super-balansu oraz jedno 4-pinowe dla klasycznych wtyków zbalansowanych. Pełnią one jednak funkcję przelotkową i o ile są bezpośrednio połączone ze wzmacniaczem słuchawkowym jako przedni panel (FP-Headphones), jest to rozwiązanie na wzór Cavalli Tube Hybrid, czyli wciąż single-ended, dodatkowo ze sobą połączone. Jest to bardzo prosty zabieg, który zwalnia z zastosowania bardziej wymyślnych konstrukcji i elektroniki, która skomplikowałaby projekt i mogła wpłynąć na jakość dźwięku na wyjściach przednich względem wyjścia tylnego. Ideą było tu ponad wszystkim zwolnienie mnie z konieczności stosowania adapterów BAL-SE i całkowite odseparowanie pinów od siebie.
Z tyłu znajdują się wszystkie gniazda, wliczając w to gniazdo zasilające oraz antenę WiFi. Wszystkie urządzenia podłączone są więc dyskretnie z tyłu.
Ponieważ serwer jest w pełni autonomiczny i osobnego komputera do szczęścia nie wymaga, ani nawet na dobrą sprawę myszki i klawiatury (choć ma taką możliwość), może być włączony tylko on sam i działać na zasadzie „włącz-wyłącz”. Serwer automatycznie łączy się z zapamiętaną siecią WiFi albo przez LAN z routerem i staje się dostępny pod określoną nazwą lub konkretnym adresem IP. Całą muzyką i jej odtwarzaniem możemy sobie wygodnie sterować za pomocą czegokolwiek, co wyposażone jest w przeglądarkę internetową, jak np. telefon. Może to też być tak samo jakiś stary sprzęt, ale wciąż sprawny i dający sobie zainstalować jakąkolwiek nowszą przeglądarkę internetową, która obsłuży sieciowy interfejs serwera. Telefon – obok zwykłego PC – jest najłatwiejszym do skonfigurowania i użytkowania urządzeniem do takiej roli, ponieważ ma on gabaryty zbliżone do pilota i z reguły jest i tak zawsze włączony.
Ma to więc wszystko sens, gdy chcemy oderwać się od słuchania na komputerze, albo stworzyć coś, co będąc nim technicznie, zachowa się stricte jak odtwarzacz stacjonarny, tylko nie płyt CD, a plików z dysku twardego lub wymiennych „płyt” USB. Do tego jeśli interesuje nas streaming z popularnych portali jak Spotify czy Tidal, radio internetowe, ale też w sytuacji, jeśli mamy problem z uruchomieniem faktycznego odtwarzania bit-perfect, postawienie całkowicie osobnej maszyny będzie miało multum sensu.
Wykorzystanie starych części
Założeniem projektu w moim przypadku było, jak już podkreślałem to wielokrotnie, wykorzystanie posiadanych już komponentów, toteż zakres opcji został przez sam ten fakt mocno mi ograniczony, tak samo jak kontrola nad walorami wizualnymi.
Tym samym jeśli maszynę chcemy „podziwiać” z zewnątrz przez otwory, albo planujemy jakąś szybę, najlepiej sprawdzą się komponenty parowane ze sobą wizualnie. Dawniej nie było mody na hartowane szkło, LEDy i RGB. Sprzęt po prostu kupowało się, instalowało w środku obudowy i pracowało na nim, zapominając o jego istnieniu do czasu problemów lub regularnego czyszczenia. W moim przypadku nie mam niestety tego luksusu, ale wyznaję identyczną zasadę jak wtedy, czyli sprzęt ma dobrze działać i ładnie grać oraz prezentować się w ramach obudowy, a nie wnętrza. Oczywiście do pewnego stopnia i w granicach rozsądku.
Radiator procesora mam na ten przykład srebrny (wszystkie takie są, wliczając w to te używane testowo, jak na zdjęciu powyżej), na jednym mostku jest złoty, na drugim niebieski, gniazda SATA i RAM żółte, PCB niebieskie, PCB karty czarne, gniazdo IDE zielone, złącze LPT różowe, RAM niebieski lub miedziany (do wyboru), po prostu jakby ktoś zwymiotował do środka tęczą. A jednak myślę, że udało się bardzo ładnie wybrnąć z tematu.
Najważniejszą jednak konkluzją jest ta, że całość będzie zasłonięta dużą pokrywą i znajdowała się w obudowie bez przeszklenia. Nie będzie to więc w żaden sposób eksponowane tak, aby dało się zobaczyć wszystkie komponenty. Według moich założeń najbardziej wyeksponowany miał być radiator procesora, jako że zajmuje największą powierzchnię. Zaś po lewej stronie czarna płytka PCB karty dźwiękowej.
Co więcej, część pokrywy bez otworów będzie zasłaniała to i owo, a rzucające się w oczy na płycie elementy sprowadzać będą się tak naprawdę co najwyżej do wspomnianego RAMu i radiatora na procesorze. Reszta może być nawet i różowa, tak jak port LPT, byle tylko sprawna, niezawodna i cicha. A jeśli przy tym i „darmowa”, tj. już posiadana i nie wiążąca się z podbijaniem budżetu tego projektu, to już w ogóle można wszystko przeboleć i przełknąć. To ma działać. I do tego niezawodnie.
W normalnej sytuacji prawdopodobnie szedłbym w jak najmniejszy sprzęt, a więc wykorzystanie platformy ITX. Inne opcje to Raspberry Pi albo użycie płyty laptopowej, choć tutaj ograniczenia i wymagania przekreśliłyby część funkcjonalności, w zasadzie w obu przypadkach. Dlatego finalnie byłby to ITX.
Znów jednak, przez chęć wykorzystania założenia utylizacji sprzętu już posiadanego w jakiejś formie, cały projekt ograniczony będzie do mATX, który jest dosyć duży rozmiarowo, ale wciąż na tyle jeszcze akceptowalny, aby zmieścić się w ramach docelowej obudowy. Jak pisałem, eksperymenty zrodziły się w ramach dwóch platform, z których jedna była oparta na Intelu, a druga na AMD. Każda z nich miała swoje wady i zalety.
W dużym skrócie na Intelu miałem większą moc obliczeniową i możliwość zamontowania bardzo niestandardowego chłodzenia, jak również mniejsze gabaryty, mniejszą alokację RAMu przez zintegrowany układ graficzny i mniejsze zużycie prądu w stresie. Wadami był mocno nagrzewający się mostek północny, większy pobór prądu w spoczynku i wyższe napięcie na pamięciach, jak też brak wyjścia DVI/HDMI. Dodatkowo po zastosowaniu niestandardowego chłodzenia, jedyną możliwością wykorzystania drugiego slotu RAM był zakup pamięci niskoprofilowej, choć 2 GB o dziwo w zupełności wystarcza dla takiej maszyny, ba, nawet 1 GB.
Na płycie AMD mogłem wykorzystać nieco inne chłodzenie, miałem wspomniane wyjście HDMI, a sama płyta ogólnie była chłodniejsza, ładniejsza kolorystycznie i jakby lepiej wyposażona. Do tego mogłem z racji konwencjonalnego chłodzenia wykorzystać oba sloty pamięci RAM, no i lepiej działał też automat PWM dla wentylatorów. Wadami była jednak mniejsza moc obliczeniowa (aczkolwiek nie było to problemem, bo nigdy nie poczułem braków w tym zakresie), nieco większe gabaryty płyty na głębokość (niby tylko 3 cm, ale jednak było to kluczowe w późniejszych etapach) oraz mniejsze wykorzystanie komponentów już posiadanych, które sumarycznie spowodowały, że mimo wszystko jednak zdecydowałem się na zagospodarowanie mniejszej płyty intelowskiej.
Najważniejsze jednak, że wszystkie części potrzebne do ich budowy już posiadałem, więc koszt wirtualny został mocno zredukowany. Realny nie, ponieważ dawno temu sam większość z nich kupowałem i pamiętam nawet niektóre ceny, ale mocna dewaluacja elektroniki spowodowała, że kosztorys, nawet jeśli opracowany byłby na dzisiejsze ceny, będzie dla mnie osobiście zafałszowany.
Przykładowo, za jeden ze zdatnych tu do użycia procesorów zapłaciłem dawniej 650 zł. Dziś można go kupić już za 10-20 zł. Drugie tyle kosztuje sam paczkomat i pakowanie. Generuje to więc bardzo duży koszt realny nie uwzględniający dewaluacji elektroniki. Dlatego też liczyć prawdopodobnie powinienem koszt aktualnie dostępnych części.
Specyfikacja podana na początku artykułu była jedynie ogólną, ale ta szczegółowa, finalna, prezentuje się następująco:
- Procesor Intel Celeron Dual Core 2,40 GHz (2C/2T) z UV/UC na 1,20 GHz @0,875 V
- Chłodzenie procesora: Prolimatech MK13 (+ mocowanie DIY)
- Płyta główna: Gigabyte GA-G31M-ES2L (+ radiatory DIY)
- RAM: DDR2 800 MHz 1,936 V do wyboru: 1) Geil Ultra CL4 2 GB, 2) Patriot CL5 1 GB
- Układ grafiki: Intel GMA3100
- Magazyn danych: Samsung SSD 860 EVO 1TB
- DAC/AMP: Asus Xonar Essence ST
- WiFi: Asus WL138G v2
- Zasilanie: Debroglie D8-PITX-87876 160 W + zasilacz impulsowy Mean Well ELG-72-12-3Y 60 W
- Wentylatory: 1x 70 mm szerokostrumieniowy (możliwa opcja na dowolny wentylator nawiewowy/wyrzucający 120-140 mm)
Z faktycznie zakupionych podzespołów i części, wylistować w ramach tego projektu musiałbym:
- obudowę robioną na zamówienie
- riser kątowy PCI
- chłodzenie mostka południowego AAB Cooling (rebrand jednego z chińskich projektów)
- 3x Burson SS V5i-D (minimum 1 do wykorzystania na stałe jako bufor)
- wspomniany dysk SSD
- gniazda XLR do panelu przedniego oraz kostki i przewody konieczne do ich podłączenia
- elektronika do Essence ST (kondensatory, filtry) potrzebna na przeróbki
- zapasowa pamięć 2 GB na wypadek awarii jednej kości
- zapasowe chłodzenie pasywne/aktywne dla LGA775
- przedłużka P4 do zasilania procesora
- przedłużka SATA MOLEX do zasilania dysku
- porządny wtyk zasilający do zasilacza
Wszystkie pozostałe części, wliczając w to OPA od Burr Browna, samą kartę, wszystkie komponenty bazowe, a nawet chłodzenie Prolimatech, już posiadałem, także jak widać uzbierało się tego naprawdę na bogato przez lata. I spośród wszystkich części jakie posiadałem, starczyło ich mniej więcej na jeszcze jedną platformę, której używałem w czasie nieobecności pierwszej. Dało mi to też możliwość sprawdzenia, czy dany problem, jaki odnotowałem, można przypisać specyfice danej platformy, jakiemuś komponentowi czy systemowi operacyjnemu, tudzież sprzętowi towarzyszącemu.
Dość powiedzieć, że w danej chwili miałem jeszcze więcej sprzętu, ale po sprzedaży tego i owego, pozostały mi się:
- łącznie 3 procesory Intela na LGA775 z chłodzeniami,
- 1 procesor AMD na AM2 z trzema chłodzeniami,
- 2 płyty główne, po jednej dla każdej platformy,
- kilka kompletów pamięci RAM,
- dodatkowe karty graficzne, karty WiFi, dyski twarde i pendrive’y
- dwa zasilacze ATX
Jeśli jeden komponent czyniłby mi problemy, mógłbym wymienić go bardzo łatwo na inny bez specjalnego problemu zarówno na potrzeby diagnostyki, jak i później, użytkowo. Przykładowo po złożeniu systemu, jeśli coś jakimś cudem stałoby się z procesorem, wymiana na inną jednostkę nie stanowi żadnego problemu. Wymiana RAMu? Tak samo. Wymiana zasilacza? Tu już trudniej z racji integracji płytki z obudową, ale też jest to wykonalne. Karta? Tak samo, nawet wymiana na inny model może być w pewnym momencie możliwa (np. STX). Chęć rezygnacji z zaawansowanego chłodzenia procesora? Nie ma problemu, jest oryginalny i bardzo o dziwo cichy BOX od E6750. Tak samo wzmacniacze operacyjne, a co okazało się później ogromnym plusem i – niestety – znów powiązane z Bursonem.
Teoretycznie nie ma potrzeby stawiania na dokładnie te same cele i priorytety, co ja, a czego należy mieć wyraźną świadomość. Choć sprzęt był budowany od zera, to jednak oparcie się o już posiadane części oraz wpakowanie tego do takiej a nie innej obudowy były moimi założeniami projektowymi. Przez lata bowiem wykształciła się we mnie filozofia, że zarówno audio, jak i sprzęt komputerowy, są przedmiotami użytkowymi, a więc – jak nazwa wskazuje – mają być użyteczne i używane. Nie czułem się komfortowo ze swoją rozbudowaną kolekcją starych słuchawek AKG nie dlatego, że coś im dolegało, albo że trzeba było o nie dbać, czy też aby „wędzić” je tak długo, aż nabiorą wartości i sprzedać potem z zyskiem, jak to niestety jest teraz powszechnie w modzie. Czułem się niekomfortowo dlatego, że do niektórych słuchawek wracałem po miesiącu, po niektóre sięgałem po kwartale, a jeszcze inne zagościły na mojej głowie raz na pół roku na parę godzin. Przez cały pozostały czas się kurzyły. Świadomość, że może być gdzieś osoba, która z wielką chęcią przygarnęłaby słuchawki, które u mnie pełnią rolę jedynie +1 do kolekcji i zaspokojenie pierwotnie zrodzonej ciekawości, ostatecznie zaważyła na sprzedaży.
Tak samo miałem wielokrotnie ze sprzętem komputerowym. Opisywany tu serwer nie zgarnął i tak wszystkiego, co posiadam w szufladach. Nadal zostało mi się trochę kości RAM, procesory, jakieś chłodzenie, zasilacze a nawet obudowy, monitory czy stare karty graficzne. Serwer konsumuje sporo z tego, a co już daje mi dużą satysfakcję i poczucie wykonania pewnej misji. A z racji posiadania dobrej klasy karty dźwiękowej, mogłem wykorzystać także i ją, tworząc nie tylko serwer muzyczny w takim typowym kształcie spotykanym na rynku, ale rozbudowany o funkcję integry słuchawkowej, czyli DAC + wzmacniacz. Od razu, wprost z urządzenia. Nie jako konkurencja dla mojego głównego systemu, bo to byłoby bardzo drogie i trudne zadanie, ale jako system pomocniczy i wyspecjalizowany pod konkretny rodzaj słuchawek, preferencyjnie HD800. Czyli jeszcze bardziej ambitnie, bo słuchawki nie należą do najłatwiejszych pod względem znalezienia synergicznego towarzysza. A jeśli podchodzić do tematu od strony prób i błędów, sprzęt z wymiennymi wzmacniaczami operacyjnymi jest w zasadzie najbardziej korzystnym i elastycznym w takim zadaniu.
Celem nie było ściganie się na jakość z Pathosami, bo raz, że wymagałoby to znacznie głębszego wejścia w temat, a dwa, że skoro je mam, to po co wywarzać otwarte drzwi? Celem stały się zamiast tego HD800, dla których stworzenie cieplejszego toru w stylu Coplanda DAC215 mogłoby być bardzo korzystne. W przypadku HD800 mam poczucie, poparte też konkretnymi obserwacjami, że ich przetworniki da się mimo wszystko utemperować odpowiednimi filtrami i samą akustyką. Może z gorszym efektem, ale wciąż jednak realizowanym zawsze, na każdym sprzęcie, nie tylko tym konkretnym wyposażonym w DSP. A już na pewno rozszerzyć ich możliwości odpowiednim okablowaniem i modyfikacjami.
Z tym że jeśli inną parę słuchawek byśmy tu postawili za cel, albo też i inny sprzęt audio w ogóle, podejście mogłoby być kompletnie inne. Dlatego to, że ja sam rzuciłem się na budowanie dźwięku wokół Essence ST, nie znaczy że każdy musi zrobić to samo. Po prostu miałem ją pod ręką, widziałem tanie i dostępne od ręki części, miałem już doświadczenie z tymi kartami, więc było to dla mnie decyzją naturalną. Są jeszcze i inne rozwiązania, jak wspominany SC808 na Wolfsonie, SC8000 na AKMie, NuAudio, STX II, czy też HT Omega Claro i Claro Halo – również z DACiem AKMa każda.
Obudowa
W przypadku tak mimo wszystko dużego streamera (de facto komputera), jego wymiary z jednej strony narzucane są przez chęć dopasowania wielkością do posiadanych już urządzeń, a z drugiej ograniczane dokładnie przez ten sam powód. Stąd też decyzja o zakupieniu nieco przerobionej obudowy wizualnie korespondującej z posiadanymi już przeze mnie innymi komponentami konkretnego producenta i finalnie znalezienie się jego logo na obudowie.
Pierwotna idea polegała na zintegrowaniu zasilacza ATX bezpośrednio wewnątrz obudowy. Taki manewr wykorzystałby wciąż sprawną jednostkę którą posiadałem, choć konsekwencją byłoby powiększenie gabarytów. Obudowa byłaby więc większa od już dwóch posiadanych i miała bardziej wysunięty „tyłek”, aby zmieścić płytkę zasilacza bezpośrednio w środku. Szerokość musiałaby się zostać ta sama.
Płyta dolna miała w moim założeniu móc przyjąć także inne płyty ATX, a czemu służyć miały standaryzowane otwory na kołki używane w obudowach komputerowych. Niestety przez użycie w pełni perforowanej dolnej płyty nośnej, okazało się, że płyta główna nie może zostać zamontowana z użyciem aż połowy kołków przeznaczonych do jej montażu. Trzeba było zatem użyć skrajnych otworów płyty. Teoretycznie każdą inną można zamontować na „odwróconych” kołkach, czyli częściowo luźną, ale również nie w miejscach, gdzie wypada otwór wentylacyjny, który jest większy niż sam kołek.
Zagospodarowanie wnętrza
Jak widać cała tylna ścianka jest okupowana przez komponenty i korespondujące z nimi złącza, tak jak w każdym normalnym komputerze. Teoretycznie mógłbym wyprowadzać konkretne gniazda na tył za pomocą przelotek i gniazd np. Neutrika, bo mają w ofercie jack, RCA ale i USB czy LAN, ale jest to raz, że mnóstwo dodatkowego czasu, dwa, że dodatkowe środki finansowe, a trzy, że posiadając oryginalną zaślepkę I/O do każdej ze swoich płyt głównych, mogę wyprowadzić sobie wszystkie wyjścia płyty jednym otworem. Nigdy nie wiadomo, czy nie będę zmuszony skorzystać z normalnej myszki, klawiatury i monitora, aby coś nie ustawić bezpośrednio w samej maszynie. Wstępnie ukończony serwer widziany elektroniką od frontu:
Ponieważ na pokładzie znajduje się karta dźwiękowa, jej wyprowadzenie planowałem na początku w sposób oszczędny dla miejsca i przestrzeni, organizując ją pod płytą (riser taśmowy). Niestety riser okazał się albo zbyt kiepski, albo zbyt tani, bo podczas odtwarzania słychać było cykliczne trzaski i chrupnięcia w tle, ewidentnie wynikające z interferencji. Powielają się tu więc doświadczenia z SC808, gdzie karta-córka podłączona dwiema takimi tasiemkami generowała mnóstwo przebić. Dopiero zastosowanie risera kątowego typu „L” pozwoliło na osiągnięcie zamierzonego efektu, jednocześnie na okupowanie jednego z dwóch slotów i sterowanie tym samym finalnym wysunięciem karty poza obrys płyty.
Zdecydowałem się na gniazdo skrajne, ponieważ zostawia ono dużo miejsca pod samą kartą oraz nie blokuje drugiego slotu PCI na kartę WiFi.
Kolejna rzecz, to pozostawienie mnóstwa miejsca na elektronikę i kable, co wpływa korzystnie na chłodzenie oraz powoduje, że bezpieczniej można operować modyfikacjami dźwiękówki w późniejszych etapach, a nawet zastosować jakieś duże, wysokie wzmacniacze operacyjne dyskretne.
Wreszcie, pozostawia do dość miejsca na umieszczenie gniazda zasilającego między kartą a gniazdami płyty. Nie jest to w żaden sposób idealne miejsce, ale przy zamontowaniu elementów zasilania z przodu, puszczenie dobrze ekranowanego przewodu po ściankach na kształt litery „C” z dala od karty, jest prawdopodobnie jedynym słusznym rozwiązaniem. A przynajmniej byłoby w sytuacji użycia konwencjonalnego zasilacza. Zastosowanie jednostki zewnętrznej efektywnie zwalnia mnie z takich problemów i jednocześnie dobrze wpływa na poziom EMI w obudowie.
Do tego fragment PCB risera wchodzi idealnie między żeberka bardzo wysokiego radiatora mostka południowego, co nie byłoby możliwe przy montażu bliższym. Wtedy też wszystkie wyżej wymienione atuty przestają istnieć – nie ma opcji zamontowania PCB na kołku, elektronika ma mniej miejsca, a fragment karty zakrywa radiator i wymaga przez to jego wymiany na coś niższego, teoretycznie gorszego termalnie.
Choć wyprowadzone zostały na tył także kompletnie niepotrzebne wyjścia, jak LPT czy COM, jest to najlepsza oszczędność miejsca w tej sytuacji na głębokość. Musiałbym nie dać karty dźwiękowej albo zastosować mniejszy format płyty, aby zamontować zasilacz z boku. To też oznaczałoby ograniczenie możliwości urządzenia i dodatkowe zakupy.
Z prawej strony, prócz poprowadzenia przewodów zasilających P4, nie ma nic. Miejsce tamto jest nastawione na ewentualne nagrzewanie się, ponieważ znajdują się tam ciepłowody od chłodzenia procesora. Karta znajdująca się z lewej strony natomiast miała być przykręcona do tylnej płyty obudowy za pomocą dwóch nakrętek, wykorzystując fakt, że jej gniazda są gwintowane, ale finalnie grubość panelu tylnego na to nie pozwoliła. Wszystko trzyma się więc w slocie i na szczelnie wypełnionych otworach na gniazda 6,3 mm.
Z całkowicie lewej strony znalazło się miejsce na moje przewody, dysk oraz gniazda panelu przedniego. Cała frontowa część pełni też rolę komory zasysającej chłodne powietrze od spodu. Projekt przechodził kilka iteracji zmian, które były konieczne do zastosowania już w trakcie działania i testów praktycznych. Tak wygląda finalna wersja serwera po wszystkich krytycznych zmianach i ulepszeniach, głównie w ramach chłodzenia:
Doszło lepsze chłodzenie na sekcję zasilania RAM, lepsze chłodzenie mostka północnego, lepsze chłodzenie jednej strony elektroniki modułu zasilającego, tłumiące zawieszenie dla wentylatora i wycentrowanie go względem obudowy. Na temat chłodzenia opiszę wszystko jeszcze w osobnych akapitach.
Wybór procesora
Do wyboru mogłem zdecydować się na jeden spośród posiadanych procesorów w ramach dwóch platform:
- AMD Athlon 64 X2 5200+ (76 W TDP, 65 nm)
- Intel Celeron Dual Core E3200 (65 W TDP, 45 nm)
- Intel Core 2 Duo E4600 (65 W TDP, 65 nm)
- Intel Core 2 Duo E6750 (65 W TDP, 65 nm)
Ponieważ wybór padł z racji energooszczędności na Intela, najciekawsze były z tego wszystkiego E6750 oraz E3200.
E6750 był procesorem który kupiłem dawno temu osobiście, także łączy mnie z nim sentyment. Jest to najmocniejsza jednostka ze wszystkich tu wymienionych, mająca najszybsze FSB, najszybszy zegar, największą ilość pamięci podręcznej.
E3200 jednak, mimo słabszych o ok. 14-15% osiągów, jest moim zdaniem jeszcze ciekawszy. Z paru względów.
Choć posiada nieco niższe taktowanie (2,40 zamiast 2,66 GHz), niższe FSB (800 zamiast 1333), mniejszą ilość pamięci jak pisałem (1 MB vs 4 MB L2), pracuje na niższym napięciu szczytowym wg specyfikacji (1,3625 vs 1,5 V), posiada wyższą maksymalną temperaturę pracy (74 vs 72°C), lepszy współczynnik oporności cieplnej względem mocy (98,89 vs 105,15 W) oraz nowocześniejszy proces (0,045 vs 0,065). Dodatkowo ma szerszy zakres ustawienia mnożnika względem FSB (6-12 x 200 vs 6-8 x 333), co teoretycznie pozwala na uzyskanie większej elastyczności częstotliwości taktowania (1,2 GHz vs 2,0 GHz przy najniższym mnożniku) bez ruszania samej magistrali.
Będzie to miało kluczowe znaczenie przy późniejszych pracach z odvoltowaniem procesora i uzyskaniem jak najmniejszego poboru mocy, również na tle jednostki od AMD, gdzie starusieńkiemu Athlonowi można ustawić dowolny mnożnik na częstotliwość od 1,0 do 2,7 GHz ze skokiem co 100 MHz. Ale nie tylko to było argumentem. Maszyna pierwotnie miała być budowana wokół E6750, jako po prostu na najmocniejszym i najwydajniejszym układzie jaki posiadam. Problemem okazały się starszy proces oraz wspomniany pobór, który przekraczał na fabrycznych ustawieniach możliwości urządzenia i po paru sekundach od uruchomienia wszystko się wyłączało. Dopiero na E3200 problemy ustały. Winny jest temu zasilacz, który może zaoferować jedynie do 60 W (na klasycznym ATX nie ma problemu), ale jeśli nawet zastąpić go porządnym układem liniowym, ilość profitów z tytułu posiadania E3200 na pokładzie moim zdaniem przekracza jego wady i ograniczenia.
Zasadą jest, że im mniejszy pobór, tym teoretycznie lepsze temperatury, gdyż podczas pracy na wyższym napięciu i poborze prądu, tym wydzielana jest większa ilość ciepła, które musi zostać rozproszone. A im lepsze rozpraszanie ciepła, tym większą żywotnością będzie cechowała się nasza maszyna. Wciąż bowiem jakby nie patrzeć należy myśleć o niej jak o komputerze, a ten wymaga termoobiegu. Istnieje przynajmniej kilka rozwiązań tego problemu i każdy będzie uzależniony od tego jakim sprzętem bazowym dysponujemy, jaką obudowę dobieramy oraz ile chcemy na wszystko wydać.
Chłodzenie
Na chłodzenie koncepcji miałem od samego początku kilka i całość niestety ewoluowała praktycznie przez cały czas konstruowania tego urządzenia. Pochłonęła przy tym masę czasu i, a może przede wszystkim, wytworzyła multum problemów swoją istotą.
Najtańszym i najbardziej logicznym podejściem byłoby chłodzenie aktywne z nawiewem bezpośrednim, czyli tak jak w przypadku każdego normalnego PC. Można też próbować dużych radiatorów i pełnego termoobiegu, albo – a co też byłoby w sumie najlepsze – zastosowanie kompletnie pasywnego chłodzenia na bazie ciepłowodów odprowadzających energię cieplną na obudowę, stając się jednym wielkim radiatorem. W przypadku takim jak mój, gdzie z jednej strony chciałoby się mieć pasyw, a z drugiej nie wydać ani jednej niepotrzebnej złotówki, problem staje się wcale nie taki błahy.
Projekt startował jako układ aktywny dlatego, że do środka miał zostać zainstalowany pełnowymiarowy zasilacz ATX z nawiewem aktywnym. Ale w trakcie dopasowywania części okazało się, że znacznie łatwiejsze i tańsze będzie skupienie się na zasilaniu zewnętrznym, a do środka wsadzenie jedynie modułu konwertującego napięcia. W efekcie cała obudowa zaczyna się zmniejszać do gabarytów dokładnie takich, jak w pozostałych posiadanych przeze mnie urządzeniach. W ten sposób odpada konieczność schładzania całości aktywnie i naturalnie zmienia się w możliwość. Położony zostać musi za to większy nacisk na duże radiatory dające możliwość nagrzania się i wykorzystania naturalnej konwekcji, a co rodzi bardzo dużo wątpliwości natury termoobiegu jako takiego.
Dlatego w takim scenariuszu najbardziej kluczowe były wysoka perforacja płyty dolnej, a także jak pisałem ogromne radiatory i ogólne „oradiatorowanie” wszystkiego co się tylko da, a co takiego chłodzenia jakkolwiek potrzebuje. Oczywiście wciąż z głową.
Ze względu na wybraną przez siebie konwencję obudowy identycznej, co mój wzmacniacz stereo oraz kondycjoner, mam tym bardziej utrudnione zadanie:
- przedni panel jest zajęty przez przycisk zasilający po środku, z lewej gniazda panelu przedniego, z prawej okupowany przez moduł zasilający i nadmiarowe okablowanie,
- boczne panele są z drewna, więc wprowadzenie tam otworów mocno osłabiłoby konstrukcję i wyglądałoby po prostu brzydko,
- tył jest mocno okupowany przez wyjścia płyty i kart, gniazdo zasilania, a także wysokość niespecjalnie pozwala na jakiekolwiek większe otwory,
- wysokość ogólnie obudowy ogranicza zastosowanie wentylatorów do ok. 80 mm, może na upartego 92 mm,
- pozostają więc tak naprawdę płyta dolna i pokrywa górna, gdzie dolna jest płytą nośną i otwory mogą spowodować również osłabienie konstrukcji.
Osobiście nie mam nic przeciwko wentylatorom, jeśli tylko są bardzo ciche. Lubię też ogromne radiatory i preferuję co do zasady chłodzenie pasywne. Zatem jeśli miałbym się skupić na zasilaniu ATX zintegrowanym w środku, które nawiewu potrzebuje (opcja to kupienie zasilacza pasywnego, co jest dodatkową – i drogą – inwestycją w kontekście tak starych komponentów) całość musiałaby się oprzeć na dwóch bardzo cichych wentylatorach niskoobrotowych i dodatnim przepływie powietrza.
Dwa wentylatory potencjalnie mogłyby (słowo-klucz) być zamontowane w przedniej części urządzenia, pompując powietrze bezpośrednio do obudowy. Jeden przy okazji będzie schładzał moduł zasilający, jakby najważniejszy w tym wszystkim element, drugi zaś dmuchał bezpośrednio w tunelu pod kartą dźwiękową, trzymając w ryzach temperaturę wzmacniaczy operacyjnych i sekcji zasilania.
Oba wentylatory będą jednak przede wszystkim stwarzały podmuch powietrza, który trafiać będzie w komponenty znajdujące się w tylnej części, jak wspomniana karta, ale też procesor i oba mostki, jak również MOSFETy. Ponieważ elementy te nagrzewają się dosyć mocno, przede wszystkim mostek G31M, na tylnej części powstanie kocioł gorącego powietrza, który będzie pod naporem ciśnienia dodatniego, ale też własnej lekkości fizycznej, w sposób ciągły wypierany z obudowy przez tylne otwory wentylacyjne. Powstanie więc układ chłodzący oparty o cyrkulację na planie „U”.
Choć nie jest to teoretycznie idealny system, bo mający ryzyko zapętlania się gorącego powietrza z zimnym, w wolnej przestrzeni nad sobą nie powinien sprawiać problemów i nie gotować się sam od siebie.
Cała płyta główna została w kluczowych miejscach wzbogacona o radiatorki chłodzące MOSFETy, kluczowe cewki oraz inne elementy nagrzewające się, aby jak najlepiej dawała sobie radę w systemie pasywnym lub z tylko jednym wentylatorem punktowym chłodzącym najbardziej nagrzewający się element o najgorszych możliwościach rozpraszania ciepła. Przy jednak pasywnej lub jednowentylatorowej pracy, muszą być lepiej obłożone radiatorami i to najlepiej takimi samodzielnie dorabianymi.
MOSFETy do takich elementów nie należą dlatego, że mimo tylko 3-fazowego zasilania, praktycznie wszystkie mają swoje własne radiatorki, a do tego sam procesor jest maksymalnie odvoltowany. Im mniejsze napięcie na procesorze, tym mniejsze nagrzewanie się tychże elementów, a tym samym mniejsza konieczność ich schłodzenia. Ale nawet przy maksymalnym odvoltowaniu, radiatorki pozostałyby się na wszystkich układach, jako swoista polisa ubezpieczeniowa.
Zadać będzie można pytanie, a czemu nie po prostu BOX albo osobny radiator lub inne chłodzenie na procesor, które dawałoby możliwość zamontowania dużego i wysokiego radiatora na mostku wraz z chłodzeniem wszystkiego dookoła? Chociażby przez to, co pisałem w poprzednim akapicie o serwisowalności. Ma to być maksymalnie ciche, bezgłośne wręcz, ponieważ jestem osobą słuchającą muzyki głównie w otwartych słuchawkach i cicho, zwłaszcza w nocy.
Procesor sam sobie na pasywie bez udziału ciepłowodów nie poradzi, a BOX, mimo że posiadam tzw. „BIG BOX” z wolnoobrotowym wentylatorem, to wciąż element generujący drgania, które są przenoszone na obudowę i z niej na mebel, działający jak pudło rezonansowe. I to mimo wszystkich zabiegów, aby to zjawisko zredukować.
Dlatego też chłodzenie procesora to samodzielnie przeze mnie zmodyfikowany radiator Prolimatech MK13 przeznaczony oryginalnie do chłodzenia kart graficznych. Posiada własnoręcznie dorabiane zapinki oraz kołki pochodzące od Prolimatecha i z innych systemów chłodzenia, takich jak:
- Scythe Ninja 2 (zapinki LGA775)
- Thermalright Macho X2 (podkładki plastikowe)
- Gigabyte GF7300GT (głowice blokowania otworów LGA775 w płycie)
W takiej konfiguracji, chłodzenie przy zerowym termoobiegu jest w stanie dać sobie radę z odvoltowanym, 65W procesorem na poziomie 48-50 stopni w BIOSie (E6750). Podczas faktycznej pracy obciążenie i temperatury są naturalnie mniejsze. Wszystko to zanotowane na napięciu 1,150 V i fabrycznej prędkości procesora. Oznacza to też, że przy bardziej agresywnym zbiciu napięcia i zegarów, będzie jeszcze ciekawiej w tej materii.
Chłodzenie mostków
Chłodzenie mostka południowego dostało nowe termopady od EKWB oraz radiator ABB COOLER 1 ze zmodyfikowanymi kołkami, aby było jakkolwiek możliwe jego zamontowanie na rozstawie minimalnie poniżej specyfikacji. Termalnie nie sprawiał więc żadnych problemów, utrzymując się na poziomie maksymalnie ok. 45°C.
Problemy narosły natomiast w zupełnie innym miejscu, a nawet kilku.
Moje wątpliwości były od początku związane tylko z procesorem i mostkiem północnym, który zawsze i wszędzie się grzeje. G31M tak już niestety mają i zaraz obok niepotrzebnego dovoltowywania pamięci, przy niemożności odjęcia tych wartości, są to wie największe wady użytej tu płyty. Do tego radiator mostka jest dosyć mały i umieszczony pod ogromnym radiatorem procesora. Na szczęście MK13 jest radiatorem ciepłowodowym i nie powoduje zablokowania konwekcji.
Chłodzenie mostka północnego otrzymało na początkowym etapie dodatkowe wsporniki zapobiegające kiwaniu się radiatora na boki oraz nową pastę (Arctic Ceramique 2). Ze względu na użycie MK13, radiator nie może być wyższy niż ok. 7 mm ponad tym, co oferuje radiator fabryczny.
Opcje więc były w tym wypadku następujące:
- Rezygnacja jednak z MK13 na rzecz innego chłodzenia pasywnego lub aktywnego.
- Wymiana radiatora na inny, maksymalnie wykorzystujący przestrzeń dookoła i na wysokość.
- Punkt 2 plus dodanie małego, aktywnego nawiewu pomocniczego.
- Wymiana radiatora na płaski i mogący zmieścić na sobie malutki wentylatorek 40-50 mm.
- Przejście na nawiew odgórny za pomocą konwencjonalnych wentylatorów 120-140 mm celem schłodzenia większej ilości komponentów.
- Wzmocnienie konwekcji poprzez wywiew ku górze za pomocą tychże wentylatorów.
- Organizacja nawiewu wzdłużnego o dużym kącie rozpraszania, łącząc poniekąd punkty 4 i 5.
- Pozostawienie wszystkiego tak jak jest.
Z racji oczywistej kolejności kroków, skreśliłem punkt pierwszy i zacząłem od samego końca, badając temperaturę poszczególnych układów, nie tylko mostka. Przede wszystkim musiałem wiedzieć jakie są możliwości tegoż urządzenia. Ponieważ G31M-ES2L nie posiada wbudowanego czujnika temperatury mostka (przypadek?), posłużyłem się dla kontroli zewnętrznym termometrem bateryjnym z sondą umieszczoną bezpośrednio na finach. Oczywiście moje szczęście jest legendarne, toteż tak jak przez wiele lat mi owa sonda służyła, tak musiała się ułamać akurat podczas testów. Stawiała też opór aby dać się naprawić, ale w końcu się udało.
Efekty? Straszne:
- Mostek północny: prawie 70°C.
- RAM: dochodzący do 50°C.
- Sekcja zasilania RAM na płycie (na cewkach): 50-55°C.
- Układy na module Pico-ATX: 45-60°C.
I to wszystko jeszcze przed sezonem letnim oraz „na pająku”, czyli bez obudowy. W obudowie liczyć można spokojnie +5°C oraz wszystko to, co jeszcze przyniesie lato.
Nawet gdybym przeszedł na platformę AMD, problem nadal by istniał. O ile mostek północny, sekcja zasilania RAM i sam RAM byłyby chłodniejsze, o tyle trudno byłoby w praktyce przewidzieć, czy wymienione nie zrównałyby się temperaturą po dłuższym czasie z platformą Intela. Co więcej, gorętszy byłby południowy, a moduł Pico-ATX miałby nawet większą robotę, bo A64 X2 jest nieco bardziej prądożerny od pozostałych procesorów. Do tego wolniejszy na maksymalnym odvoltowaniu.
Stało się dla mnie jasne, że w kompletnym pasywie, o ile urządzenie sobie „poradzi”, to jego żywotność będzie dramatycznie ograniczona na osi czasu. Pozostały zatem się eksperymenty z dodatkowym nawiewem i przejściem w system albo w pełni aktywny, albo przynajmniej „wspomagany”.
Pierwotny mój plan polegał na instalacji specjalnej turbiny chłodzącej. Tak się szczęśliwie złożyło, że parę miesięcy wcześniej otrzymałem w spadku dwa mocno zużyte laptopy HP 6820s. Choć oba mniej więcej działające, najtańszym kosztem, bo tylko wymieniając klawiaturę na nową, udało się z obu złożyć jedną, całkiem sprawną maszynę. Reszta podzespołów została się jako zapas, z którego skorzystał w międzyczasie mój netbook, który także wymagał napraw. Jedynym ulepszeniem, jakie mogłem tam zastosować, był dysk SSD i rozszerzenie RAMu z 1 na 2 GB DDR2 SODIMM (oryginalny Windows 7 Starter i tak nie przyjąłby nic więcej). Na wyposażeniu jednak było tam sprawne chłodzenie, w tym turbinka, która idealnie pasowałaby do moich zamierzeń. Problemem jednak było to, że pracowała ona na napięciu 5 V zamiast typowych 12 V dla wentylatorów PC, jak też była na malutkie mikrozłącze 3-pin.
Rozwiązaniem zagwozdki jej wykorzystania okazało się wylutowanie długiego kabla 3-pin od wentylatora, którego na pewno bym nie użył w żadnym projekcie, wyciągnięcie pinów z wtyczki i zalutowanie wszystkiego na stałe. Tak przygotowaną turbinę podłączyć musiałem do przygotowanej przez siebie przelotki z MOLEX 4-pin na FAN 3-pin na sztywno pod linią 5V. Ponieważ priorytetem jest cisza, metodą prób i błędów dobrałem na jednej linii kilka rezystorów, które skutecznie zredukowały obroty do poziomu akceptowalnego, ale nie na tyle słabego, aby turbinka miała problemy z wystartowaniem. Można było wykorzystać wszystkie części do zrobienia jednego, bardzo konkretnego radiatora, który umożliwiałby montaż turbiny bezpośrednio na nim, nawet luzem.
Niestety instalacja dodatkowej karty WiFi na PCI spowodowała, że ilość wolnego miejsca na instalację turbiny skurczyła się wyraźnie, niemalże uniemożliwiając jej zamontowanie. Udało się jednak wrzucić ją dosłownie na styk tak jakoś bokiem, przez co schładzała RAM, częściowo mostek południowy, dawała też delikatny podmuch na moduł zasilania, ale bardziej w wymiarze symbolicznym, który nie powodował specjalnie zmiany sytuacji.
Wszystko w teorii wyglądało dobrze, póki nie zmontowałem całości finalnie w obudowie. Okazało się, że temperatura to jednak temperatura i podmuch na inne komponenty staje się z czasem podmuchem gorącego powietrza ogrzewającym wszystko inne. A o ile mostek był bardzo dobrze schładzany, do ok. 41°C, o tyle pojawił się jeszcze jeden dodatkowy problem – drgania. Turbina była dosłownie przykrywana i przytrzymywana przez chłodzenie procesora, co powodowało, że wszystkie drgania od silnika były przenoszone na płytę główną, powodując irytujące brzęczenie. Nie było też niestety miejsca na to, aby wprowadzić jakieś izolatory drgań. Patent z turbiną musiał więc zostać na razie zarzucony.
Pomijając oczywiste rozwiązanie z dużymi wentylatorami nadmuchującymi lub wydmuchującymi, drugi patent jaki pozostał się w rękach to przedmuch wzdłużny o szerokim kącie rozwarcia, albo po prostu jakikolwiek. Obudowa jest tak skonstruowana, że teoretycznie zmieści jednostki nawet 92 mm postawione na sztorc. W praktyce jednak bliżej byłoby modelom 80 mm jak sądzę, przynajmniej uwzględniając sposób montażu.
Problemem było tu jednak znowu to, że nie miałem żadnego takiego wentylatora. Przypomniało mi się natomiast, że jeden z zamówionych wcześniej systemów chłodzenia – Arctic Cooling 7 GT – miał na sobie wentylator, który zdemontowałem i odrzuciłem, jako zbyt zużyty (szlifujące łożyska w pozycji poziomej i nierozbieralna konstrukcja aby móc go naoliwić). Mimo wszystko dla testów wziąłem go i podłączyłem.
Co się okazało – był to strzał w dziesiątkę! Wentylator bez żadnych problemów cichuteńko pracował w pozycji pionowej, idealnie pasował do obudowy wysokościowo, był na PWM, więc zyskałem od razu możliwość wykorzystania automatu z płyty i rezygnację z przelotki MOLEX (większy porządek w obudowie). Do tego bardzo mocno schłodził moduł zasilania (maksymalne bezpieczeństwo prądowe), dobrze schłodził RAM, wdał się w proces chłodzenia mostka południowego i procesora, a przy tym wszystkim wytworzył na tyle mocny ciąg, że wzmocnił wyraźnie konwekcję na fabrycznym wciąż radiatorze mostka północnego, wykorzystując blaszki radiatora procesora jako kanałów kierunkowych, a do tego dochładzając jeszcze spód płyty głównej. Co prawda nie jest to wydajność bezpośredniego nawiewu turbiną, ale temperatura zamiast blisko 70°C na pełnym pasywie i 41°C na turbinie, utrzymywała się na w pełni akceptowalnym poziomie 57-58°C. Hałas? Bardzo delikatny szum słyszalny tylko i wyłącznie podczas grzebania w urządzeniu i przełączania się z tyłu po złączach, co zmusza rad nie rad do nachylenia się. Aczkolwiek musiałem się nieco nagłówkować nad jego montażem oraz eliminacją przenoszenia drgań na obudowę. Ostatecznie najlepsze okazały się dwa sposoby, stosowane odpowiednio w tej kolejności:
- na kanapkę, zakleszczając wentylator na piankowych podporach amortyzujących między płytą dolną i górną
- na stałe, przyklejając go do ramienia przykręconego do płyty dolnej oraz z dodatkowymi podkładkami amortyzującymi.
Wreszcie żadnego brzęczenia i buczenia. Okazało się i tu, że ramię (nota bene pochodzące także od płyty Gigabyte, a dokładniej od śledzia zabezpieczającego mostek SLI) jest w stanie część drgań wytłumić samo z siebie, a do tego nie powodując specjalnych problemów i umożliwiając manipulowanie obudową bez ryzyka wypadnięcia wentylatora i uszkodzenia albo swojego przewodu, albo elektroniki dookoła. Jako rozwiązanie tymczasowe uznałem, że może zostać, z późniejszą opcją na zmianę na zawieszenie piankowe dociskane z góry i z dołu przez obie płyty nośne. Do tego doszedł samodzielnie zarobiony oplot w odróżniającym się kolorze od reszty kabli.
Wentylator wywarł też ciekawy wpływ na termoobieg. Wyraźnie wzmocnił konwekcję, ale też odwrócił od 180 stopni zasadę działania, wprowadzając poniekąd to, o czym myślałem na samym początku na platformie AMD z systemem dwu-wentylatorowym opartym o ciche 120 mm. Mianowicie wentylator zagospodarowuje część otworów górnych, nie tylko dolnych, do zasysania powietrza, wydmuchując je już ogrzane pozostałymi otworami górnymi na zasadzie pozytywnego ciśnienia. Jednocześnie wykorzystuje środkową część górnej pokrywy pozbawioną otworów jako kanał transmisyjny dla wdmuchiwanego powietrza, rozbijając się o tylną ściankę i wylatując górnymi otworami. Można powiedzieć, że same plusy, także jeśli chodzi o spokój ducha np. w lecie. Ponieważ wentylator jest sterowany via PWM, automat w oparciu o temperaturę procesora, sam dobierze obroty. Znów dodatkowy punkt dla bezpieczeństwa i żywotności, choć szkoda, że płyta nie posiada czujnika na mostku i ustawienia się w jakikolwiek sposób względem tegoż wskazania.
Jedynym minusem będzie więc co najwyżej świadomość aktywności chłodzenia. A także smutna konkluzja, że w tym sprzęcie po prostu nie da się (lub nie da się tak łatwo) zrobić pełnego pasywu i jedynie osobne bloki z ręcznie kształtowanymi ciepłowodami są w stanie się tu sprawdzić, najlepiej w obudowie mającej możliwość pracy jako jeden wielki radiator. Przy czym chłodzone musiałoby być tak wiele drobnych elementów, że wymagałoby to ogromnych kosztów wykonywania skomplikowanego systemu bloków o zróżnicowanej głębokości. Nie mówiąc, że o zwarcie jakiegoś układu bardzo łatwo w takiej sytuacji.
Samodzielnie wykonane radiatory
Mimo wszystko nie jest to koniec historii chłodzenia mostka i nie porzuciłem planów za jego wymianą na coś innego nawet w świetle działania wszystkiego w stanie fabrycznym tak jak przygotował płytę producent. Choć na złotym radiatorze fabrycznym temperatura była dosyć jeszcze w porządku i wspomniane 57-58°C było dla mnie akceptowalne, z racji powyższych rzeczy, będę planował wykonanie własnoręcznie konwencjonalnego radiatora żeberkowego na bazie jakiejś już posiadanej bryły od chłodzenia procesorowego. W ten sposób można uzyskać znacznie większą powierzchnię oddawania ciepła, ale przede wszystkim odpowiednio skierowane finy, które aktualnie są prostopadle do kierunku podmuchu powietrza. Utrudnieniem jest oczywiście wysokość chłodzenia procesora aktualnie zamontowanego, plus dookoła są elementy płyty głównej, tj. kondensatory, układy scalone, inne duże części i gniazda, więc mimo wszystko bryła wciąż musi być limitowana na objętości do pewnego stopnia.
Gdybym wciąż optował za wariantem na wyłącznie pasywne chłodzenie, zdecydowałbym się zastosować radiator bardziej dopasowany do naturalnej konwekcji, bazujący na przerobionym radiatorze fabrycznym od Pentium 4 (S478). Mam też opcję, aby radiator zrobić np. z oryginalnego chłodzenia od AM2, które charakteryzuje się większą ilością cieńszych finów, ale upchanych na mniejszej powierzchni i z dynamicznie zwiększającą się grubością podstawy w miejscu przyłożenia jej do układu mostka północnego. Każdy projekt byłby idealnie dopasowany na wysokość, aczkolwiek koliduje z komponentami dookoła i wymagałby mozolnego przycinania krok po kroku. Jest też bardzo czasochłonny w produkcji.
Aby projektu serwera mimo wszystko nie przeciągać (i publikacji na ten temat), zdecydowałem się na razie złożyć wszystko na trzecim, niskoprofilowym srebrnym radiatorze pochodzącym z karty graficznej GeForce 7300GS od Gigabyte. Wadą takiego rozwiązania jest niewykorzystywanie całości dostępnej wysokości i ogólnie miejsca dookoła. Zaletą jest za to możliwość zamontowania płasko dowolnego wentylatora – turbinowego lub konwencjonalnego 40-50-60 mm – oraz ułożenie się finów dokładnie wzdłuż przebiegu strumienia powietrza, co pozwoliło organoleptycznie na zejście z temperaturą w okolice 48-50°C w trybie aktywnym. Radiator jest większy rozmiarowo od fabrycznego, ale jest lżejszy, niższy, ma cieńszą podstawę oraz rzadsze finy ułatwiające konwekcję ustawione jak pisałem zgodnie z ruchem powietrza. Łatwiej przez to przyjmuje i oddaje ciepło. Sumarycznie zmiana więc jest na plus w warunkach aktywnych, a 6-10 stopni w dół przez sam fakt zmiany orientacji finów to też nie jest wcale tak mało, bo 11-17% wydajniej.
Dodatkowym plusem były odpadki, z których albo zrobię sobie coś ciekawego w przyszłości, albo już od razu udało się je wykorzystać, jak np. na jedną stronę elektroniki modułu zasilania. Do tej pory miałem tam dwa czarne małe radiatory nie obejmujące jednego z układów oraz cewki, która jest podniesiona względem reszty, ale obecnie cała elektronika prócz wspomnianej cewki jest chłodzona przez jeden duży moduł z dobrą konwekcją. Nie widać tego na zdjęciach, ponieważ robione były one jeszcze na starych, czarnych radiatorach oraz starszym mocowaniu chłodzenia (musiało być minimalnie odsunięte i zastosowane jak pisałem na piankach dociskanych podwójnie od obu płaszczyzn).
Z dużej części tego samego radiatora od 7300GS powstał długi moduł chłodzący praktycznie tylko obie cewki sekcji zasilania RAM. Do tej pory jedna miała mały radiator, a druga nic. Chłodzone za to były MOSFETy tejże sekcji. W praktyce okazało się, że nie jest to aż tak im potrzebne i lepiej jednak skupić się na samych cewkach. Stąd wspomniany moduł, którego otwory i wcięcia okazały się idealne pod konwekcję oraz jako obejście wyższych od tychże cewek kondensatorów. Różnica jednak wynosi ok 10-13°C między radiatorem a samą cewką. Czyli jeśli ma on ok. 40°C, na cewce jest ok. 52-53°C. To i tak spadek względem tego, co było poprzednio.
Moduł jest tak przygotowany i dopasowany finami, że obojętnie czy pod pracą w pełni pasywną, czy aktywną tylko turbiną na mostku, czy przednim pełnym nawiewem, da sobie radę. Nie ma też ryzyka że ulegnie przeciążeniu i odpadnie. Choć trzyma się tylko taśmą termoprzewodzącą na jednej cewce, z drugiej odbiera ciepło na zasadzie wsunięcia finów między finy małego radiatorka na nią naklejonego. Jest więc odbiór + podpora.
Jeśli już do projektu radiatora na mostek północny planowałbym wrócić, to raczej tylko wraz z upałami i gdyby odczyty termalne zaczęły skakać do góry. Przy okazji da mi to pogląd na sytuację w ogólnie najmniej sprzyjających warunkach. Ale to już na spokojnie i jeśli w ogóle. Aktualny radiator jest tak przygotowany, że nie będzie żadnego problemu z dodatkowym jego chłodzeniem aktywnym, choć naturalnie kłóci się to z pierwotną ideą pasywności. W praktyce jednak elementów wydzielających ogromne ilości ciepła jest po prostu zbyt wiele i wymagałyby one bardzo dobrego chłodzenia przynajmniej ciepłowodowego. A to oznacza kierunek chiński lub samodzielne rzeźbienie, które mocno podniosłoby i tak już ogromny nakład roboczogodzin.
Zasilanie
Wiele problemów stwarzało niestety zasilanie, głównie z racji uparcia się na koncepcję zasilania zintegrowanego, tak jak w normalnym PC.
Pierwotnie chciałem, aby zasilaczem był zmodyfikowany i zamontowany bezpośrednio w obudowie BeQuiet Pure Power L7 350W z certyfikatem 80 PLUS Silver. Wybór na tą jednostkę (opcją był jeszcze System Power SU7 300W) padł głównie przez stan jej obudowy, który był opłakany. Nie pamiętam przyznam co się z nim działo, ale był to jeśli dobrze kojarzę efekt nieudanej modyfikacji, którą w porę anulowałem i wróciłem do poprzedniego kształtu obudowy, o ile można to tak ująć. Sam zasilacz jednak był w pełni sprawny technicznie oraz już przeze mnie kiedyś fanswappowany na bardzo cichy wentylator Scythe SlipStream 120 mm 800 RPM wraz z dorobionym wtykiem 3-pin pozwalającym na wykorzystanie automatu sterującego obrotami wprost z zasilacza. Jest to o tyle ważne, że użyta płyta posiada wyłącznie kontrolę obrotów PWM i nie zezwala na sterowanie napięciem ze złączek na niej wbudowanych, tudzież kompatybilność ze zwykłymi złączkami FAN 3-pin i kontroli obrotów poprzez napięcie. Oznaczałoby to konieczność stosowania rezystorów napięciowych lub przelotek z MOLEX na FAN 3-pin 5 V.
Finalnie jednak projekt stanął pod ścianą właśnie z tego tytułu. Co do zasady cała obudowa wyszłaby znacznie taniej i szybciej, gdyby nie było w środku zasilacza, rozpychającego ją niepotrzebnie na głębokość i powodującego multum problemów, także natury chłodzenia. Rozwiązaniem problemu było do wyboru:
- Zmiana zasilacza na inną jednostkę (np. Flex ATX).
- Zastosowanie zasilania zewnętrznego + modułu zasilania (Pico ATX).
- Zainstalowanie w środku na sztywno zasilacza zewnętrznego przystosowanego do montażu i w metalowej obudowie.
Wybór padł z racji kosztów na ten drugi (choć mogłem wykorzystać jeszcze opcję nr 3). Przede wszystkim zaletą jest brak konieczności instalowania zasilacza w środku, co oszczędza miejsce, zmniejsza wydzielanie się ciepła komponentów, nie wymaga aktywnego chłodzenia powietrznego oraz nie generuje zakłóceń EMI na elektronikę. Co więcej, można dzięki temu zastosować dowolny zasilacz impulsowy typu laptopowego, jak też dorobić później zasilacz liniowy z prawdziwego zdarzenia tak, jak mam w swoich Pathosach. Aczkolwiek fakt, że będzie to większy koszt i wynoszący konkretną już wartość, jeśli się podsumuje to wszystko.
Przy zasilaczu ATX nawet wymiana kabla zasilającego dawała subtelną różnicę i wynikało to m.in. właśnie z faktu podatności na zakłócenia RFI. To też dawało mi przeświadczenie, że separacja zasilania i maksymalne ekranowanie wszystkiego będzie tu kluczowe, po powodowało bardzo małą ilość przebić i zakłóceń. To zresztą był powód, dla którego zdecydowałem się na zachowanie oryginalnej pokrywy EMI za wszelką cenę.
Zasilaczem jest jednostka Mean Well ELG-72-12-3Y o mocy 60 W przeznaczona do zasilania… LED. Posiada aktywne PFC, zabezpieczenie przeciwzwarciowe, przeciążeniowe, nadnapięciowe, termiczne, odporność na przepięcia do 6 kV (zgodność z normą IEC 61000-4-5), stopień ochrony IP67 oraz sprawność na poziomie do 90%. Zasilacz był domyślnie zarobiony zwykłym wtykiem 2-bolcowym, który iskrzył. Nie dawało się go również rozebrać i konieczne było jego zniszczenie. Tymczasowo poszedł tam GigaWatt z jednego z moich własnych kabli, a docelowo czarny WattGate 360i Classic, który już wcześniej stosowałem i bardzo sobie chwaliłem. Dodatkowo, sam zasilacz posiadał kabel 3-żyłowy i mógł być uziemiony, a z czego naturalnie skorzystałem. Oryginalnie znajdujący się tam wtyk poszedł do śmietnika, a do projektu doliczyć trzeba było kolejne +115 zł. Oczywiście można byłoby taniej, ale takich wtyków używam u siebie w IA100PP i jestem bardzo zadowolony, a jednocześnie po tylu latach zabawy z różnym sprzętem audio i nie, nauczyłem się iść w sprawdzone już rozwiązania i nie kombinować. W myśl powiedzenia „chytry traci dwa razy”. Aczkolwiek śmieszna sprawa, że goły nowy zasilacz (z kablami do samodzielnego zarobienia) to koszt ok. 100-110 zł.
Zasilanie jest tu więc dwustopniowe i składa się z adaptera zasilania oraz wspomnianego zasilacza impulsowego. Adapter to nic innego jak płytka scalona zamontowana bezpośrednio na pinach ATX, którą wpina się wprost w płytę główną. Z niej wychodzą wszystkie niezbędne kabelki i o tyle jest to śmieszne, że w ilości dokładnie odpowiadającej mojemu zapotrzebowaniu. Dosłownie.
Mam tutaj bowiem złączki P4 dla procesora, MOLEX dla karty dźwiękowej oraz SATA MOLEX dla dysku twardego SSD. Nic więcej nie da się tu zamontować bez użycia specjalnych przelotek i rozgałęziaczy, ale też chyba nic więcej nie byłoby potrzebne. Całe szczęście, że do projektu użyłem od razu pojemnego dysku 1 TB, więc o brak miejsca nie muszę się bać i instalować dodatkowych urządzeń.
Z modułu Pico ATX wychodzi jeszcze jedna, dodatkowa złączka DC na zasilacz. Złączka wyprowadzana jest na tylny panel, co przy jej malutkich gabarytach jest o tyle dobre, że nie rezerwuje zbyt dużo przestrzeni, w przeciwieństwie do IEC. Niemniej i tak musiała zostać umieszczona na środku urządzenia.
Adapterem pierwotnie miał być moduł Akyga AK-CA-38 o mocy 120 W, ale z racji niedostępności (sklep w którym zamówiłem towar nie posiadał go na stanie i trzeba byłoby czekać ponad 2 tygodnie) padło na moduł Debroglie D8-PITX 160 W od osoby prywatnej. W zasadzie nie ma co patrzeć nawet na producenta, ponieważ wszystko jest i tak z jednego sortu Made in China i spokojnie dostępne na chińskich portalach aukcyjnych.
Plusem takiego rozwiązania jest jednak w miarę prosta konstrukcja, którą być może udałoby się czasami naprawić, jak też bardzo wysoka sprawność, dochodząca do ok. 92%. To więcej niż nawet sam planowałem użyć w ramach zasilacza ATX i co o tyle dla mnie ważne, że pobór prądu jest jednym z kluczowych aspektów tej maszyny. Osobom niezaznajomionym z pojęciem sprawności w najprostszych słowach można to wyjaśnić jako ilość energii pociągniętej wprost z gniazdka. Im większa sprawność, tym lepiej. Akyga miała co prawda 95%, ale znów: co mi po tym, jak i tak niedostępna. Plus zawsze będzie można w razie czego moduł wymienić na inny, a nawet jeśli, to i tak po drodze jest jeszcze nieco niższa sprawność samego zasilacza.
Jest jeszcze jedna zaleta takiej zewnętrznej konfiguracji. Możliwość zamontowania w obudowie dowolnej płyty głównej co do jej objętości. Także jeśli podjąłbym decyzję za przejściem na platformę AMD, np. z tytułu awarii, testów, chęci większych oszczędności prądowych czy niższych temperatur pracy, nie byłoby to dla mnie żadnym problemem. Przy montażu wewnętrznym byłoby to natomiast zauważalnie ograniczone, jeśli nie wprost niemożliwe, bo zablokowałoby to płyty główne większe niż użyta pierwotnie. A pierwotnie użyć trzeba było jak najmniejszej (najkrótszej).
Do tego serwis i wprowadzanie zmian. Przy usunięciu zasilania mamy więcej miejsca czy to na sam sprzęt, czy nawet operowanie rękami. Ułatwiony jest też aspekt organizacji okablowania. Wychodzi więc na to że są to same plusy.
Oczywiście nie zawsze i nie wszędzie. W moim przypadku maszyny były testowane watomierzem mierzącym pobór wprost z gniazdka. Doskonale więc wiedziałem ile dany procesor, platforma czy nawet pojedyncze urządzenie konsumuje i jakie są granice szczytowe danego serwera. Moduł Debroglie jak pisałem ma 160 W, ale i tak będzie ograniczany przez zasilacz impulsowy o mocy tylko 60 W. Po co więc aż 160 W na module? Z prostego powodu: ampery.
Zawsze lepiej mieć z zapasem niż na styk. Specyfikacja modułu zasilającego (cyt. za treścią aukcji):
- Input voltage: +12V/DC (11.4-12.6V)
- Input Current: Max. 17A
- Output ATX: 160W
- Output Current +12V: 8A
- Output Current +5V: 8A
- Output Current +3.3V: 8A
- Output Current +5VSB: 1.5A
- Output Current -12V: 0.1A
- Output Power: 160W
- Power Efficiency: > = 92%
- Operating temperature: 0 ~40
Poza +5VSB, wszystkie parametry pracy są lepsze niż w module Akygi. Choć prawda jest taka jak pisałem, że to wszystko to i tak „jeden chińczyk”.
Pobór prądu
Jest to bardzo ciekawy temat, bo pozwalający na widoczne dopracowanie platformy i tym samym balansowanie między wydajnością, a prądożernością. Smaczku dodaje też fakt, że twórcy Volumio nie podają wymagań sprzętowych dla swojego systemu i ogólnie działania takich maszyn, ale z informacji jakie posiadam wynikało, że ma to być minimum 2 rdzenie i ogólnie więcej niż 1 GB RAM. Aczkolwiek praca z 1 GB okazała się również możliwa i o dziwo bezproblemowa.
Natomiast czuć było już granicę zadyszki przy mocno ograniczonym prądowo procesorze. Te informacje i obserwacje są ważne w chwili, gdy zaczynamy walczyć o dodatkowe oszczędności prądowe (łączące się z wydzielaniem ciepła).
Tak naprawdę wszystko jest tu ze sobą połączone: wydajność z termiką oraz prądożernością. Jeśli system zjada dużo prądu, najpewniej będzie wydzielał dużą ilość energii cieplnej. Aby był chłodniejszy i bardziej energooszczędny, konieczne jest obniżenie napięć tam, gdzie można. Mniejsze napięcie musi iść wtedy w parze z mniejszą mocą obliczeniową, a to z kolei musi zawierać się w specyfikacji minimalnej, pozwalającej na płynną pracę systemu z różnorodnym materiałem muzycznym i zadaniami, jakie przed serwerem stoją.
Eksperymenty na A64 X2 5200+
Z testów jakie wykonałem, najniżej udało się zejść z platformą AMD, w której X2 5200+ został dosłownie zdegradowany z 2,7 GHz przy 1,350 V na 1,0 GHz przy 0,800 V, uzyskując orientacyjne TDP niższe niż 35W. Prawdopodobnie dałoby się gdzieś znaleźć słodki punkt optymalny, ale wydaje mi się, że najbardziej dopasowanym dla tego kandydatem było w przypadku tej konkretnej maszyny ustawienie 2,6 GHz i 1,150 V, czyli moment graniczny, w którym konieczne było już nieznaczne obniżanie taktowania zegara, aby utrzymać podane napięcie.
Wyniki jakie uzyskałem w spoczynku (bez kart):
- 34,4 – 35 W dla 2,6 GHz przy 1,150 V
- 28,5 W dla 1,0 GHz przy 0,800 V (najniższe możliwe ustawienie w BIOSie)
W tym ostatnim przypadku odtwarzanie wygląda następująco:
- STRESS 1 (PCM 16/44.1, uśredniony pobór prądu dla typowej pracy z normalną muzyką) = 29,0 W
- STRESS 2 (DSD256, uśredniony pobór dla odtwarzania plików DSD256) = 33,0 W
Rezygnując z dodatkowych wentylatorów zapewne udałoby się zejść jeszcze o 1-2 W, zostawiając tylko jedną, specjalną, niskonapięciową turbinę na mostki (wentylatora w zasilaczu nie liczymy). Jeśli odpiąłbym klawiaturę, to także bym coś zaoszczędził, jak również wyłączając zintegrowany układ graficzny. Finalnie dało to w spoczynku 24,4 W, co jak na komputer stacjonarny jest wartością wręcz fenomenalną.
Niemniej testy traktowałem bardziej jako swoisty „proof of concept”, tj. jak nisko można zejść z poborem prądu na takich maszynach. Powstaje oczywiście pytanie, jakie ma to przełożenie na działanie sprzętu. Odpowiadam: niestety spore. Warunkiem uzyskania tak ekstremalnych wyników jest przede wszystkim:
- brak karty dźwiękowej (oszczędność 6-7 W dla ST/STX)
- brak karty WiFi USB (oszczędność 6-13 W dla WG111v2 i Sagem’a)
- tylko jedna kość RAM
- powyłączane wszystkie zbędne funkcje i urządzenia na płycie
- podłączony tylko DAC via USB
- tylko jeden wentylator niskonapięciowy (w zasilaczu ATX)
Pomijając już sygnały z BIOSu mówiące o braku karty graficznej, a także ryzykowne pozbycie się takiej formy bezpośredniego dostępu do urządzenia (wystarczy że coś się stanie z systemem albo konfiguracja sieciowa się zmieni), w wymiarze stricte użytkowym całość uruchamia się zauważalnie wolniej (procesor), bardziej ociężale chodzi interfejs przy korzystaniu z podłączonego wprost do serwera monitora, zaś wykorzystanie procesora jest praktycznie maksymalne przy odtwarzaniu DSD256, powodując jednak zacinanie się muzyki tylko w sytuacji, gdy coś dodatkowego na urządzeniu robimy, np. uruchamiamy wtyczkę diagnostyczną. Generalnie jednak można tak całość pozostawić i potraktować jako bardzo ekstremalny undervolting bez względu na koszt wydajności. Nie ma żadnego problemu z obsługą Web GUI, nie ma też żadnych problemów z odtwarzaniem muzyki PCM, a i też jeśli „po prostu” odtwarzamy albumy DSD, to także żadnych przycięć nie uświadczymy. Uznałbym jednak, że wydajność urządzenia, a raczej wymagania stawiane odtwarzaniu, są tu dosłownie na granicy.
Ciekawostką jest, że teoretycznie procesor powinien przechodzić samodzielnie w najniższy tryb zegara i napięcia, ponieważ aktywny był cały czas system inteligentnego sterowania tymi parametrami. Jak widać tak się jednak nie działo i może to być związane z mechaniką samego systemu operacyjnego. To ważna obserwacja, ponieważ powoduje, że undervolting i underclocking to jedyne słuszne podejście do zaawansowanego oszczędzania energii.
Kolejne pytanie, czy w ogóle warto się rozmieniać na drobne i walczyć o każdy pojedynczy Wat aż za cenę wydajności i potencjalnego zdrowego rozsądku. Jeśli bowiem procesor pozostaje chłodny, a wydajny i zjada tylko kilka W więcej, to po co się miotać? Z tego samego powodu, dla którego modyfikacje sprzętu audio to niewdzięczny temat.
Liczy się suma drobnych i pozornie nie mających dużego znaczenia rzeczy. Klawiatura? 0,4 W. Niepotrzebne wentylatory? 1-2 W. Brak WiFi na USB, jeśli blisko mamy router i puszczenie tego metra kabla nas nie zabije – kolejne Waty, nawet i 13 W, co jest wartością dla mnie osobiście zaskakującą. Brak kart dźwiękowych jeśli interesuje nas wyłącznie praca cyfrowa, to także te 6 W zaoszczędzone w suchym. A jeśli nawet i wyłączyć integrę graficzną, kreując sobie konieczność ewentualnego resetowania BIOSu w razie czego lub instalowania innej karty graficznej na riserze, tudzież wyciągania wszystkiego z obudowy, także mamy zaoszczędzone te 4 W. Jeśli i tak nie będziemy korzystali z interfejsu dostępu wbudowanego, to faktycznie jest to oszczędność jaką można powziąć.
Liczymy zatem sumę powyższych i wychodzi nam oszczędność 25 W. Czyli zredukowalibyśmy pobór o połowę. Tak samo dzieje się z modyfikacjami sprzętu czy słuchawek. Tu coś się wymieni, tu coś się zrobi, grosz do grosza, a na koniec słuchawki grają kompletnie inaczej. Bierzemy drugą, nową sztukę bez modyfikacji – dwa zupełnie różne modele. Dlatego powstało te stare, wyszydzane tu i tam powiedzenie, że w audio „wszystko ma wpływ na wszystko”. Bo na koniec liczy się często suma drobnych rzeczy, które same w pojedynkę niewiele robią.
Testy na E6750
W przypadku platformy Intela, niestety nie mam aż tak rozbudowanych możliwości w zakresie oszczędzania energii. I mieć nigdy nie będę, ponieważ sam fakt istnienia karty dźwiękowej w ustroju powoduje wzrost poboru. Problemem jest też prądożerny chipset, który konsumuje swoje.
Niemniej pobór prądu w scenariuszu optymalnym, bo na takim na razie się może skupmy, został zredukowany poprzez ograniczenie napięcia na procesorze z 1,350 V na również 1,150 V. Pozwoliło to również na zredukowanie stresu i temperatur na sekcji zasilania procesora, która jest tylko 3-fazowa.
W testach z zasilaczem ATX chłodzonym aktywnie oraz z jednym wentylatorem pomocniczym, pobór prądu platformy stabilizował się na pułapie:
- IDLE (brak odtwarzania) = 43,5 W
- STRESS 1 (PCM 16/44.1) = 44,4 W
- STRESS 2 (DSD256) = 47,3 W
W każdej więc konfiguracji, urządzenie nie pobierało więcej prądu niż trochę mocniejszy laptop. Pytanie czy dałoby się coś z tym zrobić więcej?
Zachęcony trochę tym, co uzyskałem na maszynie AMD, postanowiłem wykonać bardzo podobne kroki na Intelu. Część z nich zresztą już miała swoje zastosowanie, jak np. pojedyncza kość RAM. Teoretycznie plusem był fakt, że procesor miał bardzo oszczędny mnożnik częstotliwości przy jednoczesnym mocnym redukowaniu swojego napięcia. Wartości 0,960 V czy nawet 0,850 V powinny być więc dostępne nawet przy 2,0 GHz, których i tak nie mogę ruszyć inaczej, niż degradując szybkość szyny FSB. Wartości napięć są więc wyższe niż na platformie AMD, ale sumaryczna wydajność powinna być utrzymana na bardzo przyzwoitym poziomie i bez żadnych problemów.
Mogę jednakże tylko estymować takie wyniki, ponieważ z racji zastosowania zasilacza tylko 60 W, urządzenie nie było w stanie uruchomić się należycie z nieodvoltowanym procesorem. Oznacza to, że w przypadku problemów z np. płytą lub wyczerpaniem się baterii BIOS, nie uruchomiłbym maszyny i musiał radzić sobie dodatkowym zasilaczem konwencjonalnym, traktując go niemalże jak rozrusznik w samochodzie. Dlatego postanowiłem przesiąść się na środkowy procesor z posiadanych pod tą platformę, dający w teorii najlepsze możliwości prądowe.
Testy na E3200
Łatwo zgadnąć po samej nazwie opisywanego urządzenia, że wybór finalnie padł i pozostał już na E3200. Zegar został ustawiony na sztywno na 1,2 GHz przy napięciu 0,875 V (0,850 V niestety było już niestabilnie), ale wydajnościowo serwer stał wyżej niż na Athlonie przy zegarze 1,0 GHz i 0,800 V, co bardzo losowo też potrafiło zrobić jakiegoś psikusa (np. wysypanie się interfejsu systemu przy korzystaniu z monitora podłączonego bezpośrednio). Tym samym okazał się – zgodnie z podejrzewaniami – najlepszym kandydatem do tytułu najlepszego współczynnika energooszczędności do mocy obliczeniowej.
Wynik na czysto bez żadnych kart:
- IDLE (brak odtwarzania) = 26,9 W
- STRESS 1 (PCM 16/44.1) = 27,9 W
- STRESS 2 (DSD256) = 29,8 W
Wynik dla formy kompletnej i ukończonej (FP Headphones, podłączony tylko DAC USB):
- STANDBY (urządzenie wyłączone) = 1,9 W
- IDLE (brak odtwarzania) = 33,0 W
- STRESS 1 (PCM 16/44.1) = ok. 33,6-34,0 W
- STRESS 2 (DSD256) = 36,0 W
- MAX PEAK (maksymalny odnotowany pobór) = 42,1 W
Pamiętam jak zaczynałem zabawę z ograniczaniem poboru prądu. Serwery potrafiły zjeść i z 60+ W przy odtwarzaniu DSD256. Teraz są to wartości z trójką z przodu. Bardzo mi się to podoba, a jednocześnie idealnie pasuje pod posiadane komponenty.
Okablowanie wewnętrzne
Wraz z opisywanym serwerem muzycznym powstało oczywiście dedykowane dla niego okablowanie zarówno do środka, jak i na zewnątrz, oczywiście tylko jeśli w granicach zasadności. Tu w wersji finalnej po zmianie radiatorów:
Już przy koncepcji z zasilaczem ATX nie widziałem najmniejszego sensu przelutowywania kabli od samego zasilacza z racji ogromnej czasochłonności i ryzyka uszkodzenia sprzętu, więc stanęło na (faktycznie wykorzystanych):
- samodzielnie zrobionej przedłużce MOLEX do karty dźwiękowej ze złoconymi pinami oraz na porządnych kablach,
- ręcznie dorabianym kablu do panelu przedniego XLR wraz z lutowanymi bezpośrednio odcinkami mostkującymi,
- dodaniu kolorowych (wariacje niebieskiego) i czarnych oplotów na określone rodzaje kabli,
- dodaniu oplotów do główne kable modułu zasilającego.
Niemal wszystkie kable zostały przeze mnie odpowiednio dotknięte, tj. wydłużone, zamaskowane i poukładane tak, aby wyglądało to w miarę schludnie, ale nie utrudniało aż tak mocno serwisu i rozbiórki sprzętu na części pierwsze. Nie ruszałem jednakże przewodów od złączki zasilającej poza dodaniem jej oplotu, ponieważ nie mam zbytnio gdzie schować tego kabla, ani też nie chcę wydłużać niepotrzebnie przewodów ryzykując zmiany względem oryginalnej konstrukcji. Choć teoretycznie wciąż mógłbym tu coś dopasować swojego. No nic, pomyślimy w przyszłości.
DAC i złącza cyfrowe
Jednym z założeń mojego projektu było rozbudowanie systemu o funkcję pracy jako DAC, wzmacniacz słuchawkowy (AMP) oraz nadajnik cyfrowy/transport (DDC), mogący w efekcie współpracować zarówno z odnogą systemu kolumnowego, jak i systemu słuchawkowego. W obu przypadkach mogło się to odbywać albo wyłącznie drogą cyfrową za pośrednictwem Pathosa Converto MK2 (USB lub przy użyciu modułu S/PDIF podpinanego do płyty głównej także po optyku i COAX wprowadzając tak sygnał do niego), albo z wykorzystaniem dodatkowego DACa dedykowanego głównie kolumnom.
Ponieważ wszystkie moje platformy testowe na Intelu i AMD notowały trzaski i interferencję przy u życiu śledzia S/PDIF oraz USB jednocześnie i wymagały wyciszania jednego lub drugiego, zdecydowałem się na postawienie na drugą opcję.
Na początku rozważałem gołą płytę główną i nic więcej, przewidując co najwyżej dorzucenie taniego śledzia z wyjściami S/PDIF. Okazało się, że płyta ma odpowiednią złączkę, więc za kilkadziesiąt złotych mogłem rozszerzyć pakiet funkcji o DAC S/PDIF. Opierając się wyłącznie na samej płycie głównej jako istniejącym w środku komponencie, można mieć obsługę praktycznie tylko USB i w ten sposób wykorzystać go czysto jako transport cyfrowy pod zewnętrznego DACa. Dopiero za pomocą śledzia S/PDIF można wyprowadzić jakieś dodatkowe wyjścia cyfrowe i skorzystać z takiej funkcji tą drogą, traktując kodek audio wbudowany w płytę główną również jako nadajnik cyfrowy. Jakość takich wyjść będzie uzależniona od jakości samego śledzia, ale też niestety tak czy siak limitowana jakością kodeka, jaki znajduje się na płycie.
Niestety ze smutkiem stwierdziłem podczas testów, że jakość dźwięku z Essence STX na PC była po złączach S/PDIF lepsza, tak samo ST tą samą drogą z najpierw również PC, a potem samego serwera. Być może udałoby się zrównać jakościowo z lepszym modułem S/PDIF, ale byłby to dodatkowy koszt i niepotrzebne moim zdaniem eksperymenty, skoro i tak posiadałem pod ręką gotową do użycia kartę ze znanym dobrym złączem. Złącza cyfrowe były tu od samego początku priorytetem, więc na ich jakości zależało mi najbardziej. Sam fakt wstawienia karty, jakoby z automatu stworzył potem okazję do wzbogacenia całości o sekcję analogową.
Funkcja DAC RCA i HP-AMP
W moim przypadku pierwotny plan (i pierwsze testy) oscylowały wokół tylko i wyłącznie USB, a do tego nie potrzeba praktycznie niczego poza samą płytą i stworzeniem maszyny mającej tylko i wyłącznie funkcję odtwarzania plików, strumieniowania oraz bit-perfect via USB. Nie wyklucza to obecności innego sprzętu i w 100% uzupełnia już posiadany system audio bez tworzenia w nim dylematów i zagwozdek.
Choć nie była to „potrzeba” w sensie konieczności posiadania na gwałt sekcji analogowej u siebie, to jednak raz, że posiadanie karty na zbyciu aż prosiło się o jej wykorzystanie, a dwa, że fakt wymiennych wzmacniaczy operacyjnych czyni tu jak pisałem bardzo fajną okoliczność dostrajania toru tonalnie pod konkretny sprzęt i jakkolwiek dodatkowej platformy testowej o innej tonalności, niż to, co standardowo jest przeze mnie wykorzystywane na co dzień w recenzjach. A nawet jeśli nie w recenzjach, to wciąż pozostaje atut dopasowania toru podług mojego własnego sprzętu, nawet dla czystej ciekawości i wiedzy.
Koresponduje to też z posiadanym przeze mnie sprzętem, głównie występującymi tu w roli bohaterów drugiego planu HD800. To słuchawki jasne, mające konkretne wybicie w konkretnym miejscu, które poza precyzyjną equalizacją lub odpowiednio grającym sprzętem trudno jest okiełznać. Mają swoje zastosowanie na blogu i są w tym względzie nieocenione, ale w zastosowaniach codziennych sprawdzają mi się wyłącznie w grach i utworach mniej rozbudowanych w sopran. Plan mam jednak taki, aby stworzyć im dopasowany tonalnie tor i zainwestować w modyfikacje kablowo-akustyczne, aby wyciągnąć z nich maksimum potencjału, tak samo jak uczyniłem to w K1000. Zwłaszcza, że tam misja ta się udała.
Niemniej brak sekcji analogowej – i tym bardziej w formie zmodyfikowanej – dramatycznie upraszcza całą konstrukcję i tak samo obniża koszt zbudowania. Choć nie uważam, aby współczynnik ceny do wartości się wtedy zmniejszył.
Można więc przepoczwarzyć to urządzenie na dobrą sprawę w kilka różnych w formie jednej obudowy:
- odtwarzacz sieciowy i USB (domyślnie)
- transport cyfrowy USB (domyślnie)
- nadajnik S/PDIF (np. po dodaniu śledzia S/PDIF)
- NAS (po dodaniu dysku twardego)
- DAC (po dodaniu karty dźwiękowej lub użyciu układu zintegrowanego)
- wzmacniacz słuchawkowy (jeśli karta dźwiękowa lub układ zintegrowany takowy posiadają)
Wybór karty dźwiękowej może być podyktowany albo po prostu stworzeniem sobie takiej „wszystkomającej” integry słuchawkowej nastawionej na odpowiedni efekt synergiczny (jak w moim przypadku), albo nawet byciem próbą wyciągnięcia absolutnego maksimum z takiego urządzenia w ogóle. Tutaj liczyć się będzie użyty układ, ale też wspomniane cele. Jeśli po prostu ma to „grać”, wystarczy nawet zintegrowany kodek na płycie, który pozwoli na jakąkolwiek pracę z dźwiękiem analogowym. Choć naturalnie osobna karta to kompletnie inna warstwa abstrakcji.
Różnica w cenie między takim urządzeniem a stawianiem od zera całego toru będzie tu także spora, więc zaoszczędzone środki można albo zainwestować mocniej w samą maszynę, albo mocniej w HD800 (kable, mody), albo w ogóle w inne/lepsze słuchawki, np. HE1000 czy ADX5000, a nawet Utopie. Choć podłączanie Utopii może wydawać się „niezbyt audiofilskim” pomysłem, należy pamiętać, że np. w takim AIMie SC808 mamy topowego DACa Wolfsona i wbrew pozorom bardzo dobrze zrobiony tor audio na płytce scalonej, a w ST możliwość zastosowania konkretnych modyfikacji od których karta ta zyskuje wyraźny zastrzyk jakościowy i zaczyna ścigać się ze swoim konkurentem bez ryzyka, że coś się spali albo przedwcześnie umrze. W obu przypadkach są to „tylko” karty dźwiękowe, które do miana sprzętu audiofilskiego co najwyżej aspirują, ale te aspiracje mimo wszystko nie są pozbawione zasadności i w niektórych kręgach do dziś karty te, zarówno AIMa jak i Asusa, cieszą się pewnym poważaniem i serdecznością.
Jeśli zaś na koniec dnia liczyć będzie się:
- jak najbardziej dopasowana tonalność
- jak największa przyjemność z odsłuchu
- jak najmniejszy efekt zmęczenia przy długich sesjach muzycznych
- jak największa oszczędność miejsca (kilka urządzeń zintegrowanych w jedno)
- jak największa opłacalność całego systemu
- możliwość dopasowania jego tonalności wzmacniaczami operacyjnymi w razie czego
… to w żadnym wypadku nie będzie to głupie podejście i finalnie może wypaść lepiej, niż kupienie drogiego sprzętu grającego w wysokiej klasie, ale gorzej tonalnie i w efekcie nieprzyjemnie. Oczywiście jest to tylko teoria i w praktyce jak pisałem każdy musi sam przeanalizować, czy tego typu urządzenie będzie mu potrzebne lub nawet jakkolwiek przydatne, a jeśli tak, to w jakim zakresie. Wybór urządzenia można byłoby zresztą sprowadzić do trywialnego użycia tego co się ma pod ręką na stanie, a więc karty Asus Xonar Essence ST.
Aby był możliwy montaż tejże karty przy tak mocno rozbudowanym chłodzeniu i bardzo niskiej obudowie, konieczne było zastosowanie kątowego risera PCI. Sama karta została przymocowana bezpośrednio do budowy za pomocą fabrycznych gwintów oraz wewnętrznych wzmocnień. Nawet radiator mostka jest wpasowany tak, że riser wchodzi częściowo płytką PCB między jego ożebrowanie i w efekcie zyskuje dodatkową stabilizację. W tym wszystkim nie zachodzi potrzeba rezygnacji z fabrycznej osłony EMI.
Zastosowanie Essence ST finalnie pozwoliło na stworzenie następujących możliwości i cech w kontekście stricte mojego własnego wykorzystania opisywanego serwera:
- Pracę jako DAC analogowy RCA
- Pracę jako nadajnik cyfrowy S/PDIF po złączu koaksjalnym albo mini-Toslink
- Wbudowany wzmacniacz słuchawkowy jack 6,3 mm
- Możliwość modyfikowania dźwięku za pomocą wymiennych wzmacniaczy operacyjnych
- Jednoczesne strumieniowanie dźwięku na wyjścia cyfrowe i analogowe
- Funkcjonowanie jako alternatywne/zapasowe źródło dźwięku
- Możliwość sterowania stopniem wzmocnienia
Praktycznie jedynymi wadami takiego rozwiązania są:
- Otwory w obudowie stricte pod tą konkretną kartę
- Konieczność sterowania przełącznikiem RCA/HP-OUT za pomocą terminalu
- Ogólne powiększenie gabarytów obudowy
Możliwości płynących z obecności ST jest więcej, bo chociażby wbudowane wejścia sygnałowe (liniowe/mic), możliwość opcjonalnego wyprowadzenia z karty wyjścia słuchawkowego na przód obudowy czy dodania opcjonalnej przystawki wielokanałowej, ale w zakresie moich własnych wymagań nie potrzeba niczego z powyższych.
Finalnie, w zasadzie największą zaletą zastosowania karty ST, ale też i dowolnej innej: STX, STX II, czy nawet SC8000/SC808, jest obejście problemów z brakiem sterowników (przynajmniej w zakresie pracy pod stereo) i – co dla posiadaczy kart Asusa jest chyba najważniejsze – ominięcie kompletnie problemu tzw. „pisku śmierci”.
Okazuje się bowiem, że jednak nie tyle jest to podatność na BCLK, ale mająca swoją konotację także ze sterownikami Windows. Czyli tak jak przypuszczałem w artykule. W trybie Native ASIO takich problemów nie miałem. Nie odnotowałem też przez cały czas pracy z tą kartą żadnych problemów na serwerze. Problem był tylko i wyłącznie gdy korzystałem w trybie Direct Sound. Tym bardziej więc eliminacja tego problemu, jeśli leży na sercu posiadaczom tych kart, którzy pogodzili się z faktem ich nieużywania, może zaświecić w głowie jakieś pomysły zagospodarowania ich w formie takiej jak zaprezentowana w tymże artykule.
Panel przedni XLR
Najwięcej pracy było generalnie chyba z panelem przednim, bo poprzedzały go mozolne testy i sprawdzanie wszystkiego metodą prób i błędów na obu kartach, ST i STX.
Za wzorzec przy jego projektowaniu obrałem sobie pierwotnie Brystona BHA-1, ale taki pakiet, tj. XLR 4-pin + 2x XLR 3-pin jest spotykany w wielu innych urządzeniach. Układ został przeze mnie zmieniony, tj. zamiast gniazda montować kolejno, XLR 4-pin umieściłem w środku. W ten sposób mam możliwość łatwiejszego mostkowania obu kanałów oraz używam odcinków kabla o tej samej długości, a także łatwiejszy dostęp do każdego z wtyków XLR 3-pin. Starałem się przy tym, aby praktycznie każdy kabel miał jakieś maskowanie i nie rzucał się w oczy w żaden sposób.
Decyzja za wyprowadzeniem wyjść XLR z przodu zamiast normalnego panelu z gniazdem jack wynikała z faktu:
- w ogóle takiej możliwości i realizacji tejże w dobrej jakości (porównywalna lub lepsza od gniazda z tyłu),
- znacznie większej ergonomii i wygody użytkowania,
- możliwości podłączenia fizycznie słuchawek z takimi złączami w charakterze testowym,
- posiadania przynajmniej kilku par kabli z takim złączem,
- rozseparowanych pinów, co wzmacnia temat bezpieczeństwa,
- nieduplikowania złącza jack i jednocześnie niezużywania go z tyłu na karcie.
Najbardziej ciekawe powinno być to co napisałem odnośnie jakości dźwięku – „porównywalnej lub lepszej”. Ta faktycznie jest lepsza, a sam dźwięk jeszcze bardziej aksamitny i ciepły, aczkolwiek to naprawdę bardzo subtelne wrażenie, które udało mi się wyłapać najmocniej na K1000 i HD800, a więc słuchawkach rzeczywiście czułych. Różnice wynikają z faktu zastosowania jeszcze dodatkowego okablowania w tak pracującym torze audio, gdzie celowo zastosowałem specjalną mieszankę, choć przyznam że nie sądziłem, że na tak krótkim odcinku cokolwiek da się ugrać. Plus stawiałem po cichu na to, że złącze goldpin będzie jeszcze dodatkowo coś broić. Ale na szczęście nic z tych rzeczy. I dobrze, bo to właśnie przedniego panelu zamierzałem używać najczęściej, jeśli nie tylko i wyłącznie. Do tego na korzyść prawdopodobnie działa fakt, że w troszkę nietypowy sposób rozwiązałem połączenia i sygnał mam mocno separowany. W pierwotnym prototypie panelu miałem to inaczej rozplanowane oraz na innych przewodach i tam różnic praktycznie nie było.
Co też należy podkreślić, najbardziej bałem się przebić, ale takowych na żadnych swoich słuchawkach nie uświadczyłem. Podłączałem eksperymentalnie panel przedni z obudowy testowej (leciwy Antec 300) i poziom przebić był straszny. A niby wszystkie wiązki kabli były tam ekranowane. Zakupiłem nawet „w razie czego” taśmę miedzianą, ale o dziwo nic z tego nie było potrzebne. Absolutnie żadnych przebić, a do tego opisywane wyżej profity w dźwięku na słuch. Od razu też chciałbym dopowiedzieć, że nie jest to spowodowane w żaden sposób faktem zastosowania adaptera. Ten sam kabel, ale zakończony wtykiem jack 6,3, dobitnie potwierdził, że różnica ma miejsce.
Druga rzecz, to skojarzenie XLRów z balansem. Choć byłoby to dla mnie naprawdę olbrzymią wartością dodaną, to niestety wszystkie złącza pracują tu jako single-ended. Przedni panel opracowałem zgodnie ze standardem HD AUDIO, jednocześnie mostkując XLR-y 3-pinowe z 4-pinowym, robiącym za „zworę sygnałową”. Dzięki temu wszystko jest ze sobą sprzężone, ale ma też jedną wadę – niemożność wykorzystania obu rodzajów gniazd jednocześnie. Tzn. można je wykorzystać, ale nie jest to rekomendowane, głównie przy mocnych słuchawkach.
Sieć oraz DLNA
Idea takiego urządzenia to oczywiście możliwości sieciowe wynikające ze strumieniowania audio i obsługi zdalnej. Zastosowana przeze mnie płyta główna posiada już wbudowany interfejs sieciowy oparty o układ Realtek 8111C, mogący pracować w trybach 10/100/1000 Mbit. Właśnie m.in. dlatego dostał dodatkowy radiator. Ale to nie wszystko.
Dołożenie karty WiFi, o ile płyta główna takowej nie posiada, umożliwia transfery bezprzewodowe. Jest to banalnie prosta i tania modyfikacja, choć należy mieć z tyłu głowy, że nie wszystkie układy uda się uruchomić. Czy to od startu, czy nawet po kombinacjach. Także o ile system jest w stanie pracować także w trybie w pełni bezprzewodowym, nie było mi dane uruchomić sobie takiej opcji przez wiele miesięcy. Po prostu żadna z posiadanych przeze mnie kart nie działa. Ani te na PCIe (np. AC56 i AC68), ani te na USB (np. Sagem XG-760N – przynajmniej na początku).
W ogóle historie związane z loterią układami w ramach tegoż serwera mogłyby posłużyć za osobny artykuł, ale wszystko to wynikało finalnie jedynie z braku mojej wiedzy co do układów, jakie drzemią w każdym z tych urządzeń. Choć w sumie też nie do końca.
Już myślałem nawet, że może kiedyś dojdę w dokumentacji z jakimi kartami WiFi udałoby się zmusić ten serwer do pracy, skoro póki co nie udała mi się ta sztuka. Dlatego też uznałem, że jedynym sposobem na pracę sieciową będzie tylko 1Gbit LAN połączony wprost z routerem i to właśnie za jego pomocą będzie realizowany sygnał WiFi. Chyba że udałoby się podłączyć tu inny router WiFi i próbować mostkowania. Ale to z kolei jest już zbyt dużą kombinatoryką.
Jakimś cudem jednak udało się wreszcie zmusić do pracy jeden z najmniej typowanych do tej roli układów – bardzo leciwego Netgear’a WG111v2 na układzie Realtek RTL8187L. Jest to karta w formie wygodnego pendrive’a, która posiada ładną niebieską diodę wskazującą aktualny transfer. O ile jest to najwolniejszy interfejs sieciowy, bo tylko 2.4 GHz / 54 Mbps, o tyle do kontroli odtwarzania plików lokalnych, czy też nawet gęstszego radia internetowego w zupełności wystarcza. I co najważniejsze – działa (tj. działał). Nie można tego było powiedzieć o systemie Windows, gdzie albo był wrzask o braku sterowników, albo gdy już wyszły i można było je zainstalować, notorycznie zrywało połączenie.
Radość nie trwała jednak długo, bo o ile sprzęt działał przy zwykłej pracy, o tyle tryb DLNA błyskawicznie doprowadził do degradacji stabilności i transferów, a także wzrostu temperatury. Sprzęt bardzo szybko przestawał działać, nagrzewał się coraz mocniej wraz z każdą sesją odsłuchową, nawet po wystygnięciu jego czas pracy stawał się coraz krótszy. Musiałem więc albo porzucić opcję alternatywnego transferu sieciowego, albo kupić coś innego (modląc się aby działało), albo przeprosić się z niedziałającym Sagemem i spróbować jeszcze tu jakoś coś poradzić.
Teoretycznie istniała jeszcze możliwość użycia karty sieciowej Broadcom pochodzącej z laptopa, ale o ile była ona w pełni sprawna, o tyle jej interfejs – mini PCI-e – uniemożliwiał zastosowanie w innej formie, niż przez specjalny adapter-przystawkę. Takie adaptery są albo niedostępne, albo w formie karty PCI-e (konieczność użycia risera o ostrym kącie gięcia), albo w formie adaptera na USB, który na pewno by nie zadziałał (jedna z opinii klarownie to opisała) i mógłby pracować tylko z dyskami M.2.
Udało się jednak znaleźć sterowniki i postawić sieć na Sagemie. Jego działanie było w pełni prawidłowe i bezproblemowe, poza jedną kwestią – poborem prądu. Tak jak w przypadku Netgear’a, układ ten konsumował 10W wg watomierza, co było niestety dla mnie na dłuższą metę nieakceptowalne. Jako układ awaryjny owszem, zawsze warto mieć taką opcję, ale jako regularna funkcja – niespecjalnie.
Pozostała się więc jedna jedyna opcja, zanim przystąpiłbym do poszukiwania czegoś konkretnego do zakupu. Dawno temu zakupiłem kartę sieciową ASUS WL-138G V2, opartą o układ Broadcom BCM4318KFBG. Karta pracowała bardzo dobrze i sprawnie pod systemami Windows, ale po pewnym czasie zaczęła sprawiać problemy (zrywanie połączeń, wieczne resety, błędy NDIS). Podejrzewałem, że po prostu przyszedł na nią czas i faktycznie po migracji na lepsze sieciówki ASUSa, karta poszła do pudła, aby wręcz nie powiedzieć, że otarła się o złomowiec. Postanowiłem spróbować szczęścia z nią, zwłaszcza że wykorzystywałaby ostatni wolny slot PCI.
Okazało się, że karta mimo wszystko działa i choć nie jest w stanie wystartować, po zainstalowaniu firmware’u oraz kilku dodatków do sterowników, ostatecznie się udało. I co ciekawe, przy działaniu tak samo skutecznym jak Sagem, a z dodatkową anteną, pobór mocy wyniósł finalnie 1W.
Tym samym odtrąbić można wielki sukces, bowiem jest to kolejne przestarzałe urządzenie, które zostało zagospodarowane, rozszerzyło zakres funkcjonalny mojego serwera i nie kosztowało mnie ponad to ani złotówki. Jednocześnie daje mi większe poczucie pewności, że gdyby coś się działo z układem sieciowym wbudowanym na płycie, zawsze mam wygodną alternatywę. Dodatkowo wykorzystywać mogę ją z dwiema antenami – małą zintegrowaną anteną domyślną oraz anteną dookólną TP-Link TL-ANT2408C (2.4GHz, 8dBi) na osobnej bazie. Bardziej dyskretne rozwiązanie.
Sagem i Broadcom bez problemu przeszły test pracy z serwerem DLNA i ani razu nie zerwały połączenia lub sprawiały psikusów jak Netgear. Czemu jest to tak znaczące? Bo tryb DLNA generuje bardzo duże obciążenie na układ sieciowy z racji wysokiego poziomu transferu (WAV 32/44.1). DLNA to nic innego jak tryb strumieniowania do urządzenia. Oznacza to, że o ile z marszu nie mamy możliwości wprowadzenia sygnału do serwera drogą cyfrową (czyli brak pracy jak typowy DAC komputerowy) za sprawą kabla USB czy S/PDIF, o tyle możemy to zrobić bezpośrednio z odpowiednio skonfigurowanego odtwarzacza.
Na PC korzystam z Foobara, toteż w moim przypadku wystarczyło odblokowanie usługi WMS odpowiedzialnej za strumieniowanie mediów, a potem zainstalowanie odpowiedniej wtyczki i jej konfiguracja. Co ciekawe, tryb DLNA został przechwycony przez moją wtyczkę DSD, ale o ile w normalnych warunkach pozwalałoby to na wyłącznościowe strumieniowanie wprost do serwera, tak tutaj nie jest to możliwe i dźwięki systemowe nie są w żaden sposób blokowane.
Oczywiście nie zastąpi to funkcjonalności typowego DACa, bo jednak trzeba byłoby znaleźć metodę na stworzenie jakiegoś systemowego, wirtualnego wrappera, do którego można byłoby wysyłać dźwięk i wtedy przesyłać go do serwera, ale takie zdalne delegowanie wszystkich dźwięków, nawet jeśliby się udało, miałoby sporo minusów i nadal nie zastąpiłoby normalnego DACa. Być może jest możliwość pracy w taki sposób, ale ja sam osobiście takowej jeszcze nie znalazłem.
Ma to jednak dodatkowy plus, bo jak się okazuje Foobar jest w stanie przekazać na strumień swoje moduły DSP i wtyczki VST. To z kolei powoduje, że jest możliwe korzystanie z serwera za pomocą LCD-i3 z zaaplikowaną equalizacją do tonalności LCD-i4. Prawdopodobnie zadziałałby bez problemu APO Equalizer, ale mi osobiście bardzo dobrze sprawdza się MathAudio Headphone EQ VST. Jego ograniczenie do samego programu do odtwarzania jest tu bez znaczenia, bowiem i tak strumień audio jest ograniczony tylko do Foobara. Duża odległość od urządzenia nie jest problemem, jeśli zastosuje się odpowiedni przedłużacz, a co ma znaczenie zwłaszcza przy Cipherze BT i tym bardziej, że Foobar przekazuje także głośność. Bardzo ograniczone sterowanie głośnością przez Ankera jakby z automatu przestaje więc istnieć.
Pliki i strumieniowanie do portu
Sam system operacyjny, w przeciwieństwie np. do Daphile, nie potrafi wykonywać operacji na plikach, tj. np. nie jest możliwe skopiowanie dużej porcji danych poprzez przeniesienie ich z pendrive’a na dysk wbudowany. Konieczne jest do tego aktywowanie funkcji SSH oraz użycie jakiegoś managera, np. WinSCP czy FileZilla. Jednocześnie możliwe jest wtedy też zawiadywanie terminalem przez PuTTy, a tym samym sterowanie wyjściami karty oraz bardziej zaawansowanymi parametrami pracy.
Czy jest jeszcze coś, co możemy z serwerem zrobić w zakresie odtwarzania muzyki po sieci? Teoretycznie tak, jest jeszcze jedna rzecz, którą nazwałbym „odwróconym strumieniowaniem”. Albo po prostu funkcją „serwera strumieniowego”, gdyż do tego tak naprawdę się cała magia sprowadza.
Nie próbowałem jeszcze tej opcji, stąd słowo „teoretycznie”, ale jest możliwość wymuszenia na systemie operacyjnym forwardowania muzyki na określony port, który byłby dostępny za pośrednictwem przeglądarki. Choć muzyka płynęłaby wtedy w sposób skompresowany (Vorbis lub Lame), a sama procedura wymaga edytowania plików konfiguracyjnych, w ten sposób można byłoby jednak „nadawać” muzykę np. na PC czy urządzenie przenośne.
Za moment będę mówił o możliwości obsługi serwera przez takowe, ale – znów teoretycznie – jest możliwe wrzucenie całej swojej muzyki na serwer, po czym robienie tego tak, jak uczyniłem to ja, a więc 200 GB karta pamięci i stworzenie z urządzenia mobilnego rozbudowany odtwarzacz plików muzycznych, a gdy jest się w domu w obrębie sieci WiFi – odtwarzacz streamingowy. Wystarczy że urządzenie dysponuje przeglądarką internetową zdolną do obsługi interfejsu systemu i tak naprawdę muzykę z serwera będziemy mogli zabrać wszędzie – do pokoju czy kuchni.
Trochę przypomina mi to serwis Bandcamp, który po zakupie danego albumu oferuje jego nielimitowane strumieniowanie via przeglądarkę. Oczywiście tam również spotykamy się z kompresją, bo inaczej obciążenie na sieć byłoby zbyt duże. W tym wypadku jednak mamy dostęp od razu do całej naszej audioteki i choć nie przez stricte Internet, a lokalnie, to wciąż jest to dostęp. Zwalnia nas to z konieczności instalowania kart pamięci i dodatkowych programów do odtwarzania muzyki na urządzeniu docelowym.
Sterowanie zdalne
Osobnym jakby tematem jest możliwość sterowania zdalnego w ogóle. System Volumio ma taką możliwość i nawet konieczność stosowania, jeśli nie chcemy obsługiwać go klasycznie przez monitor i myszkę. Oparcie się o platformę x86 ze zintegrowaną kartą graficzną na pokładzie daje takie możliwości i pozwala na bezpieczną konfigurację nawet w trybie offline. Docelowo jednak plan był taki, aby korzystać z niego zgodnie z przeznaczeniem, a więc po sieci lokalnej.
Obsługa odtwarzania via PC na którym będzie się pracowało to oczywista oczywistość. Ale jeśli nie mam ochoty włączać komputera, ani mieć dodatkowego miejsca na monitor, klawiaturę i myszkę specjalnie na potrzeby obsługi serwera?
Pozostaje wtedy albo telefon, którym można obsługiwać serwer jak pilotem, albo wprost dedykowane urządzenie tego typu. Może to być albo stary, nieużywany już telefon, który ma na tyle jeszcze nowszą wersję Androida, aby zainstalować w miarę nowoczesną przeglądarkę, która obsłuży bez problemu Web GUI serwera, albo jakiś tablet, który także sprawdzi się w takiej roli.
Pierwszy z racji małych rozmiarów nada się idealnie do takiej obsługi jako interaktywny pilot z ekranem. Dobra sprawa gdy jesteśmy bardziej mobilni i chodzimy po całym domu.
Drugi z kolei będzie wygodniejszy i czytelniejszy, gdy pracujemy bardziej stacjonarnie, tj. bardziej z perspektywy sofy, fotela itd.
Dodatkowo każde z tych urządzeń może być wyposażone i skonfigurowane jako przenośny odtwarzacz z Bluetooth. Z obu tych urządzeń najszybciej i najwygodniej było mi pójść w te drugie.
Wybór padł na starego Asusa Fonepad K004 (ME371MG) z Androidem 4.1.2. Tablet (dosłownie) złożyłem sobie samodzielnie z kilku innych, uzyskując egzemplarz praktycznie w stanie idealnym, po czym zoptymalizowałem cały system usuwając niepotrzebne aplikacje, mocno redukując listę procesów, a także instalując w nim kartę SD o pojemności 200 GB z muzyką i ręcznie dwie aplikacje, które będą tu niezbędne:
- Foobar2000 (dla funkcji odtwarzacza przenośnego)
- Firefox 68.x.x x86 (dla funkcji obsługi serwera zdalnie)
- JuiceSSH 2.1.4 (dla funkcji zdalnego dostępu do terminalu – o tym za moment)
Kluczem było obejście Google Play Store, ponieważ w takiej konfiguracji ani dostęp do aktualizacji nie był mi potrzebny, ani też żadna inna aplikacja, zwłaszcza później szukająca sobie możliwości synchronizacji nawet po wyłączeniu takowych funkcji. Udało się co więcej po takich optymalizacjach tak wydłużyć żywotność baterii, że tablet mógłby sobie pracować nawet z tydzień bez problemów. Integruje też oba obszary funkcjonalności w sposób płynny i w ramach tylko jednego urządzenia, nie nadwyrężając w ten sposób użytkowania telefonu i oszczędzając jego baterię na inne zadania, te związane typowo z pracą.
W ten sposób też oto serwer mógł pracować finalnie albo z PC, gdy operowałem na komputerze, albo bezprzewodowo na tablecie. Dodatkowo sam tablet otrzymał rysik i etui, mogąc stać sobie pod kątem jak normalny 7” ekran piórkowo-dotykowy. Wygoda więc do kwadratu.
Sterowanie kartą / terminal
Tak naprawdę jednym „problemem” (a raczej niedogodnością) jest zarządzanie wyjściami karty, jako że nie można sterować przełącznikami inaczej, niż przez terminal serwera. Jest to jednak problematyczne tylko w sytuacji, gdy nie jest włączony PC lub bardzo często przełączać chciałbym się między wyjściem głośnikowym a słuchawkowym.
Dostęp do niego można uzyskać na dwa sposoby:
- bezpośrednio – poprzez podłączony do serwera monitor, klawiaturę i myszkę
- zdalnie – za pomocą urządzenia mającego dostęp do sieci i zdolnego nawiązać połączenie typu SSH
W tym ostatnim przypadku jak pisałem korzystam głównie z PC i kilku urządzeń na bazie systemu Android. Wywołanie takiego połączenia wymaga przede wszystkim aktywowania trybu SSH, który jest ukryty w opcjach deweloperskich pod adresem sieciowym zakończonym /dev.
Dla PC najprostszym i darmowym sposobem na wywołanie terminalu jest PuTTy, którym logujemy się bezpośrednio via adres IP, port 22 oraz login i hasło (domyślnie volumio/volumio).
W przypadku Androida temat jest teoretycznie również prosty, ale niekoniecznie. Ponieważ mój ASUS nie jest tabletem pracującym na Androidzie pierwszej wiosny, konieczne jest stosowanie instalacji ręcznych i starszych wersji aplikacji via pakiety .apk. Na szczęście wciąż dostępne są repozytoria pozwalające na pobranie takowych. Jedną z darmowych aplikacji z której zacząłem korzystać była JuiceSSH, która pozwoliła w swojej darmowej wersji na pełen dostęp do terminalu bez żadnego problemu w wersji 2.1.4 z 2017 roku.
Dodatkowo „sok” posiada także możliwość zapamiętywania konkretnych danych logowania, co bardzo ułatwia i upraszcza sytuację z automatycznym, szybkim dostępem. Niestety za każdym razem dostęp do aplikacji sterującej (alsamixer) wymaga wpisania takiej komendy w terminalu ręcznie. Nie można więc wywołać jej w jakiś bardzo zautomatyzowany sposób.
W przypadku bardziej nowoczesnych systemów Android można użyć współczesnych wersji aplikacji JuiceSSH, ale też np. Termius czy Connectbot.
Sterowanie wyjściami karty to tak naprawdę przełączenie się poprzez terminal na jedno z trzech wyjść audio:
- SPEAKERS
- HEADPHONES
- FP HEADPHONES
Pierwsza opcja to po prostu wyjścia RCA, które mają swoją własną ścieżkę sygnałową na Essence ST i wykorzystują trzy wzmacniacze operacyjne: dwa z sekcji I/V oraz jeden jako stopień buforujący, wszystkie w wersjach podwójnych.
Druga opcja to wyjście tylne jack 6,3 mm. Tu zamiast kości buforującej wykorzystywany jest niewymienny wzmacniacz TPA6120A2. Możliwe jest od razu cyfrowe sterowanie stopniem wzmocnienia w trzech pozycjach:
- +0 dB dla słuchawek o impedancji do 64 Ohm
- +12 dB dla impedancji 64-300 Ohm
- +18 dB dla impedancji 300-600 Ohm
Trzecia opcja to wyjście na przedni panel obudowy, który w normalnych warunkach byłby realizowany w ramach obudowy komputerowej i zawierał np. dodatkowe gniazdo mikrofonowe. Złączem jest tu kostka 2 x 5 goldpin (najczęściej w formie 9-pinowej dla poprawnej orientacji). Taka sama została wykorzystana przeze mnie do podłączenia przednich XLRów. Zaletą jest fakt, że sygnał na przednie wyjścia jest dokładnie taki sam, jak na tylne, a więc przechodzi przez wzmacniacz słuchawkowy Texas Instruments i ma możliwość sterowania wzmocnieniem. Co więcej, jakość dźwięku z reguły na panelach przednich jest znacznie gorsza, pojawiają się przebicia i artefakty od niskiej jakości elektroniki i często puszczania kabli przez całą obudowę, narażając je na zbieranie zakłóceń. Tu problemu nie ma absolutnie żadnego.
Oczywiście dostęp zdalny do terminalu pozwala także na wykonywanie standardowych operacji via bash, więc wcześniej opisywany przeze mnie dostęp fizyczny poprzez klawiaturę i myszkę oraz monitor jest świetną opcją, jeśli chcemy takowy mieć, ale bardziej jako połączenie awaryjne lub konfiguracyjne na samym początku stawiania maszyny od zera. Zwłaszcza na etapie konfigurowania sieci WiFi oraz wykonywania operacji stricte w BIOSie płyty głównej.
Modyfikacje i zmiany systemowe
W samym systemie naturalnie zaszły pewne zmiany, bo zajść miejscami musiały, zarówno od strony technicznej, jak i wizualnej. Przede wszystkim system został zainstalowany na dysku twardym SSD 1 TB, który został później dostosowany na wielkości i typie partycji tak, żeby można było dysk fizycznie wypiąć, podłączyć do zwykłego komputera PC sterowanego systemem Windows i kopiować pliki w prosty, szybki, bezpośredni sposób. Jest to bardzo dobrze rozwiązanie zwłaszcza na początku, gdy dopiero zapełniać będzie się cały dysk.
Następnym etapem było permanentne zamontowanie partycji z muzyką jako element w katalogu Media. O ile Volumio posiada możliwość automatycznego montowania dysków USB, nie tyczy się to dysków fizycznych (sda).
Aby uruchomić w ogóle sieć bezprzewodową, konieczne były dodatkowe sterowniki do 2 z 3 kart sieciowych które były przeze mnie testowane. To z kolei wymagało podłączenia się klasycznie via LAN. Przydało się też zainstalowanie pakietu PCIUTILS dla komend listowania urządzeń.
Na koniec system został potraktowany standardową customizacją opcji dostępnych z jego poziomu, a także aktywowany dostęp via SSH jak pisałem wcześniej. Dzięki niemu stało się możliwe zgrywanie i zarządzanie plikami z poziomu sieci oraz dostosowanie wizualne systemu pod własną markę i preferowaną kolorystykę.
Z tym też wiązała się pewna intencja. To nie tak, że standardowa kolorystyka mi jakkolwiek wadziła. System wyglądał (i wciąż wygląda) bardzo ładnie, schludnie, cieszy oko. Ale po moich modyfikacjach, jest czytelniejszy i… szybszy. Przyspieszenie wczytywania było możliwe dzięki temu, że zastosowane zostało przeze mnie tło o bardzo małej wielkości i wadze, jak również okładka domyślna w formie zoptymalizowanej grafiki. W ten sposób, na przykładzie tła, z prawie 1 MB udało się zejść na 96 kB bez aż tak widocznego uderzenia po jakości. Oznacza to, że tablet lub telefon będą miały mniej roboty przy pierwszym wczytywaniu oraz późniejszej pracy z takim tłem. Niby banalna rzecz, a jednak cieszy.
Finalnie na K004 interfejs nie dostawał już takiej zadyszki i nie trzeba było tak długo czekać na wyświetlenie się kolejnych list i ekranów, zaś na Redmi Note4 w ogóle było bajecznie szybko i responsywnie. Choć osobiście mimo wszystko preferuję, aby jeśli już, to drenowana była bateria tabletu, aniżeli telefonu.
Bezpieczeństwo słuchawek
Zaleta budowanej maszyny i jej sekcji analogowej w takim a nie innym kształcie ponad np. osobnym układem wzmacniającym robionym od zera jest jeszcze jedna. Przy wszystkich cudach, wiankach i kaprysach, jakie na przestrzeni lat miałem z Essence STX na PC (ST również, w końcu to ta sama konstrukcja), piskach śmierci i innych artefaktach od których można było dostać co najwyżej zawału, żadne urządzenie fizycznie nie ucierpiało od pracy z tymi kartami, ani zewnętrzny DAC/wzmacniacz, ani słuchawki. A przypomnę, że ze swoim STX pracuję praktycznie dzień w dzień od 2009 roku. Przewinęło się przez niego mnóstwo sprzętu, garść OPA (nawet jeden omyłkowo spaliłem) i wszystko żyje do tej pory (prócz rzeczonego OPA, na szczęście był to fabryczny JRC2114D). Może szczęście, może za mała moc, aby cokolwiek mogło się uszkodzić, a co również biorę tu za dobrą monetę, a może po prostu dobry sprzęt.
Wspominam o tym dlatego, że w pewnym momencie stało się dla mnie priorytetem wybranie też i takiego sprzętu na kandydata na kartę dźwiękową i tym samym sekcję analogową serwera, żeby nie mieć ani żadnych kłopotów, także pod kątem większych temperatur (kłaniają się cele z tytułu pasywności chłodzenia). Poza tym jeśli przyjdzie mi sprzęt od kogoś na testy, choćby i był to najtańszy model słuchawek, mam mieć absolutną pewność, że nic się nie stanie zarówno mojemu sprzętowi, jak i nie moim słuchawkom. To też legło u podstaw decyzji za XLRami.
Na pewno pewien niesmak pozostawił po sobie wspomniany wzbudzający się OPAMP Bursona. Zwłaszcza, że nie jestem jedyną osobą, która w ostatnim czasie miała jakieś problemy z wyrobami tego producenta, miejscami bardzo poważnymi i kończącymi się stratami w sprzęcie towarzyszącym. Ale na szczęście zmiana środowiska aplikacyjnego rozwiązała u mnie problem, mimo że teoretycznie w stanie fabrycznym nie powinno nic się dziać. Nic się nie działo kiedyś z kupionym wtedy tercetem tych samych kości, nic się też nie dzieje z dwiema innymi kośćmi tego samego typu kupionymi za jednym razem w tym samym sklepie jako komplet. No i dwa dodatkowe szczęścia, że podczas wzbudzania się układu nic się nie stało sprzętowi towarzyszącemu (i nie miało prawa), a sam układ, nawet gdyby uległ uszkodzeniu, kosztowałby raptem tylko 160 zł za sztukę. Jak za OPAMP nie jest to co prawda mały pieniądz, ale w skali ogólnej nie jest to w żadnym wypadku ogromna kwota.
Ale wracając do tematu i pomny tego co pisałem wyżej, budowany serwer po prostu nie ma takiej mocy, aby w ogromnej większości przypadków dokonać jakichkolwiek zniszczeń w słuchawkach i spalenia im przetworników. Oczywiście wszystko jest możliwe, gdy np. wrzuci się wkrętak do środka podczas pracy, ale mówiąc całkowicie poważnie i przy całym współczuciu jakie mogę zebrać wobec użytkownika którego takie nieszczęście spotkało, płynąca z takiej sytuacji nauka wymieszana z doświadczeniami z STX sugeruje, że na przestrzeni lat nadchodzących powinno być to jedno z bezpieczniejszych urządzeń słuchawkowych jakie gościć będę pod swoim dachem. Zwłaszcza, że w przeciwieństwie do SC8000 czy SC808, karty te mają programowo regulowany gain i nigdy jeszcze nie zdarzyło mi się, aby na skutek błędu sterowników lub czegokolwiek innego, Xonar obszedł własne ustawienia i forsował gain inny, niż ustawiony. Pracując w serwerze, również nie zdarzyło mi się nic takiego, jak również wszystkie inne dolegliwości (piski śmierci, bardzo rzadkie trzaski w trybie BP) zniknęły i karta zachowywała się absolutnie nienagannie (minus sytuacja ze wzbudzającym się SS V5i-D, o której pisałem przed momentem).
W moim przypadku ilość sprzętu testowanego jest ogromna i w bardzo różnych kwotach. Jest więc absolutnym priorytetem dla mnie, by sprzęt wrócił do właściciela albo w niezmienionym stanie, albo lepszym niż przyjechał. Zdarzało mi się, że za wiedzą i zgodą właściciela maskowałem mu ślady zużycia na słuchawkach, oczywiście w ramach swoich skromnych możliwości. Naturalnie jeśli coś by się stało, ręczę za jego sprzęt finansowo, ponieważ wysłał mi go w dobrej wierze. Jeśli dany sprzęt, przy wszystkich swoich zabezpieczeniach, w okolicznościach wykluczających działanie sił lub urządzeń trzecich spaliłby np. LCD-4, to strata wyniosłaby tu 20 tysięcy złotych. To tyle, ile w tym momencie wynosi koszt niemal całego toru do K1000, czyli DAC + wzmacniacz + zasilacz liniowy + same słuchawki. Dopiero doliczając kable i modyfikacje kwota ta jest wyraźnie przekraczana. Mieć 20 tysięcy, a nie mieć 20 tysięcy, to raczej oczywista sprawa dla każdego z nas.
Mimo więc, że zajmuję się testami audio cały czas w ramach hobby, nie chciałbym nigdy tłumaczyć się przed nikim – dystrybutorem, sklepem, producentem czy osobą prywatną – że „a wie Pan, bo jest taka sprawa, w serwerze coś tam strzeliło i teraz Pana sprzęt nie działa”. Każdy powinien wyciągać wnioski z takich sytuacji jak opisałem i przewidywać je u siebie, jeśli tylko jest na to szansa. Jest to bowiem mądrość czerpana z cudzych przeżyć i dramatów, stąd w ogóle wziął się ten akapit i akurat w tej publikacji.
Finalna konkluzja jest więc taka, że pewniej czuję się z taką sekcją analogową w kontekście tematyki bezpieczeństwa sprzętu, niż gdyby to był moduł wzmacniający „z prawdziwego zdarzenia” o konkretnej mocy. Sam osobiście pożegnałem się z kilkunastoma tysiącami złotych, utopionych w spalonych słuchawkach przez wzmacniacze DIY Rapture i Rapture 2. Dramat przeżywałem ja, ale wypięcie się na mnie przez konstruktora oraz – w przeciwieństwie do innych osób mający podobne problemy z tymi wzmacniaczami – opisanie przeze mnie sytuacji publicznie być może kogoś później od podobnej tragedii uchroniło.
Modyfikacje Essence ST
Wychodząc trochę od tego tematu, tj. DIY i modyfikacji, wyznaję zasadę, że jeśli nie jesteś pewien swoich zdolności i nie czujesz się do końca na siłach, aby przeprowadzić jakąś modyfikację w 100% bezpiecznie i profesjonalnie, nie zabieraj się za nią w ogóle lub przekaż komuś, kto trochę pewniej będzie trzymał w rękach lutownicę.
Fakt, że inna osoba ingerująca w ten sprzęt odbiera pewną malutką część całościowej finalnej satysfakcji, ale to nie tak, że odtąd serwer będzie parchaty i przeklęty. To też mówiąc, nie ma naprawdę absolutnie nic złego w tym, że niektóre rzeczy oddaje się pod opiekę osobom o większym doświadczeniu, jeśli tylko będzie gwarantowało to należyte wykonanie modyfikacji z zachowaniem schludności, żywotności sprzętu i chyba najbardziej też bezpieczeństwa. Nie jest to żadna ujma czy plama na honorze, a do tego wiąże się z tym co pisałem na początku: jeśli nie jesteśmy w stanie czegoś samodzielnie zrobić, dajmy to komuś kto umie. Fakt, zapłaci się więcej, ale i tak mniej niż gdyby miało się zniszczyć modyfikowany komponent albo cały sprzęt. Tym bardziej że niektórzy forsują się i starają budować i modyfikować wszystko sami. Ten warunek teoretycznie już na starcie nie został spełniony, bo ani komponenty komputerowe tu użyte nie zostały stworzone przeze mnie, ani też obudowa.
Nie jestem też osobiście fanem wymyślania koła na nowo i robienia przysłowiowego „druciarstwa” na sprzęcie elektronicznym, dlatego po wstępnych analizach zdecydowałem się na zmodyfikowanie ST w podstawowym zakresie jego elektroniki. Finalnie stanęło tylko na minimalnych modyfikacjach kondensatorów w kluczowych miejscach oraz wymianie wzmacniaczy operacyjnych, a także dołożeniu paru radiatorów w kluczowych miejscach. Rzeczy, z których prócz tego zrezygnowałem, to chociażby wymiana zegara oraz niezależne płytki scalone dla sekcji zasilającej. Powód jest prosty: topologia karty wskazywała na konkretne miejsca, które mają znacznie wyższy priorytet do modyfikacji niż pozostałe, a na tym etapie wymiana wszystkiego na ślepo lub dla zasady niosłaby ze sobą spore koszty i zbyt duże ryzyko, że coś pójdzie nie tak. Zaś sama eliminacja zasilacza ATX oraz przejście na wysoce stabilizowany zasilacz impulsowy znajdujący się poza obudową wiele tutaj dają.
Poza tym znacznie bezpieczniej jest wykonywać takie modyfikacje po kolei, sekwencyjnie. Wymiana kilku układów i sprawdzenie jak całość się sprawuje to żmudna i czasochłonna, ale słuszna droga. Stąd decyzja, aby nie rzucać się z przysłowiową motyką na słońce i małymi krokami dochodzić do konkretnego poziomu. Możliwe więc, że karta będzie przechodziła jeszcze jakieś modyfikacje elektroniki, ale jeśli już, to na spokojnie i ze świadomością, że dany etap został należycie zakończony i przetestowany. Wydaje mi się jednak, że takie modyfikacje, jakie zostały aktualnie wykonane, powinny być świetnym balansem między poświęconym czasem, wydanymi pieniędzmi a efektem końcowym.
Tymże efektem są:
- oczyszczenie się dźwięku,
- zwiększenie odstępu sygnału od szumu (faktycznie poziom szumu tła między modowanym ST a niemodowanym STX jest teraz wyraźnie słyszalna),
- większa dynamika i selektywność w dźwięku.
Dźwięk nie jest już taki zbity i nie ma efektu „buły” na średnicy, choć akurat z HD800 dosyć dobrze się to zgrywało. Charakter kości OPA mimo wszystko został jednak w dużej mierze zachowany, toteż finalny dźwięk nadal oscylował wokół pierwotnych zamierzeń. Sama karta stała się też bardziej transparentna w dźwięku i grająca nowocześniej, bardziej współcześnie. Scena również nieco się powiększyła i choć nadal nie jest to poziom SC808, jakościowo zaczyna jej to deptać po piętach. Oczywiście głód za „więcej, mocniej, śmielej” gdzieś tam w człowieku się nadal tli, ale Essence ST/STX są w tym względzie układem niekorzystnym, chociażby przez całościowy koszt doinwestowania oraz gorszego DACa na pokładzie niż w karcie AIMa. Bardzo łatwo w takich warunkach przestrzelić i zamiast poprawić dźwięku, mogłoby to spowodować jakieś strzelanie, trzaski, wzrost impedancji wyjściowej albo niestabilność na poziomie sprzętowym. To sprzęt elektroniczny o dosyć dużym stopniu skomplikowania. Człowiek musi znać swój limit możliwości i najlepiej czuć gdzie leży granica kombinatoryki, za którą można po prostu przekombinować i szukać wtedy już tylko drugiej, sprawnej sztuki na bardziej uważną powtórkę tego, co wcześniej powinno być jako tako dla niej bezpieczne.
Nie chciałbym takich historii przechodzić, zwłaszcza w kontekście swoich doświadczeń ze wzmacniaczami Rapture, które choć grały świetnie, to okazały się finalnie tak ekstremalnie wyżyłowane, że temat żywotności prawdopodobnie nie był nawet brany pod uwagę. Albo tak po prostu zaprojektowane. Cokolwiek z tych dwóch by to nie było, sprowadza się do tego samego wniosku i jednocześnie powiedzenia: „lepsze jest wrogiem dobrego”. A że sprzęt ma mi służyć latami i nie sprawiać problemów, zainwestowane w niego ponad pół roku czasu to także nie jest rzecz, na którą można sobie ot tak machnąć ręką. Znany jest mi przypadek problemów z uruchomieniem komputera jednego z użytkowników pod Volumio, jeśli na pokładzie była zainstalowana SC808. Komputer nie chciał w ogóle wstać i restartował się na etapie inicjalizacji karty, po pierwszym kliknięciu przełącznika toru sygnału. Sam niestety nie testowałem tejże karty akurat tu w środowisku serwera, więc nie umiem powiedzieć, czy jest to przypadek jednostkowy, czy może faktycznie realne ryzyko niemożności skonstruowania wariantu tego urządzenia na AIMie.
Teoretycznie nawet jeśli udałoby się, platforma której używam jest bardzo leciwa i może nie powodować konfliktu sprzętowego, jeśli takowy istnieje. Przypomnę, że SC808 nie jest kartą już produkowaną, nie ma więc żadnego wsparcia, serwisu, ale przede wszystkim – jej układ dźwiękowy różni się od tego zastosowanego na serii kart ST/STX i wielu innych pochodnych (CMI8788 vs CMI8888). Starszy i popularniejszy układ może więc mieć paradoksalnie lepsze wsparcie.
Możliwe więc, że wszelkie moje dywagacje i snute tu wizje „a jakby to było na SC808” są jedynie proszeniem się o potencjalne kłopoty. Aczkolwiek dla przeciwwagi znam też przypadek, gdzie SC808 udało się pod Volumio z powodzeniem uruchomić. Znów jednak, nie rozprasza to mgły jaka spowija tą kartę na obecnym etapie egzystencji i w myśl powiedzenia „kto nie ryzykuje, ten nie pije szampana” nadal warto jest zaryzykować z nią przygody. Bo choć serwer mógłby rozwiązać problem ryzyka braku wsparcia (brak aktualizacji zmieniających co rusz strukturę systemu = brak problemów), to nie zdejmuje ryzyka z trafieniem na wadliwą serię, której nie da się nigdzie przeserwisować.
Poza tym, SC808 ma szereg wad, przynajmniej dla mnie i w ramach tego konkretnego urządzenia:
- Z zamontowanym chłodzeniem mam dużą trudność w zastosowaniu riserów PCIe.
- Mam złe doświadczenia z taśmami, toteż obawiam się zakłóceń i artefaktów w dźwięku.
- Tracę opcję multistream (jednoczesne nadawanie sygnału analogowego i cyfrowego S/PDIF z osobną regulacją głośności dla obu).
- Tracę sterowanie gainem.
- Tracę dobre, wzmocnione wyjście na przedni panel oraz możliwość zrobienia sensownie XLRów.
- Drastycznie zwiększam impedancję wyjściową z 10 na 33 Ohm.
- Prawdopodobnie tracę sterowanie filtrem DACa (tylko względem STX).
Naturalnie trudno aby nie nachodziły mnie wątpliwości – czy jest w ogóle sens inwestować aż tak mocno w jakąś starą kartę dźwiękową. Odpowiedzi już udzieliłem. Ale też nie zamierzam nikogo przekonywać na siłę do swoich racji i przekonań. Malkontenci zawsze będą na wszystko narzekać, a forumowi eksperci wiedzieć swoje. Każdy słucha tego co gra mu najlepiej. Sam zaś słyszałem je już nie raz i nie dwa w różnych konfiguracjach, wiem jakie są ich możliwości i ograniczenia, co warto zrobić a co będzie przekombinowaniem. W środowisku w jakim karta aktualnie pracuje i biorąc pod uwagę ogólną trudność w dobraniu odpowiedniego toru stricte pod HD800, czy też w ogóle pod takie urządzenie, robi się już ciekawa. Zwłaszcza zliczając wszystkie zalety oraz funkcje, jakie pełnić będzie przyszłe urządzenie, nadal koszt trzymany jest w ryzach przy relatywnie wysokim współczynniku ceny do możliwości. Po odpowiednio zaaplikowanych modyfikacjach, których wcale nie musi być dużo, sprzęt taki może się klasowo zrównać z takim np. Astellem SA700, co jest dla obu tych urządzeń komplementem. Dla SA700, bo jako odtwarzacz jest w stanie zagrać jak sprzęt budowany w formie stacjonarnej z porządnym zasilaniem, a dla ST-3200A, bo jest w stanie zagrać jak wysokiej klasy DAP za konkretne pieniądze. Choć znów – w tym środowisku w którym obecnie pracuje, a więc na innych warunkach niż w zwykłym PC i ze znacznie obniżoną z tego tytułu penalizacją.
Dopiero więc pytanie zadane w kontekście PC ma zasadność, tj. czy jest sens zabawy w modyfikacje fizyczne Xonarów pod Windows, przy jego mikserze i wielokrotnie bardziej podniesionym poziomie zakłóceń elektromagnetycznych. Tu już odpowiedź nie musi być taka jednoznaczna i choć moim zdaniem karta absolutnie zyska na jakości, nadal będzie wyraźne wskazanie, że w środowisku Volumio te układy pracują uważam lepiej. Zwłaszcza, że na STX zyskujemy możliwość kontrolowania filtrów DAC, czego nie ma ani pod Windows, ani o dziwo pod moim egzemplarzem ST. Co więcej, testowałem dwie różne sztuki na dwóch platformach i nie widziałem w ogóle takiej opcji. Zmieniając ją na STX z kolei jeśli już czułem różnicę, to naprawdę ekstremalnie subtelną i często niemożliwą do rozróżnienia w normalnym odsłuchu. Także choć boli mnie brak tejże opcji w ST, niekoniecznie uważam to za wielką ujmę.
Jakość dźwięku
Tym razem jednak można przejść już do sedna, czyli opisu dźwiękowego po modyfikacjach i jako finalnego już urządzenia.
USB
Dźwięk Pathosów po USB różni się od tego znanego mi z PC głównie w lepszej dynamice i lepiej wykończonych skrajach. Całość brzmi dokładniej, czyściej i żywiej, a dzieło to jest zasługą niezmąconej pracy w trybie bit-perfect oraz – jak podejrzewam – bardzo dobrych sterowników pod XMOSa wbudowanych w system. Converto jest układem mającym scenę dokładną, ale nie aż tak dużą, jak np. opisywany tu już wzdłuż i wszerz Conductor. Nadrabia jednak tą niedogodność wieloma innymi aspektami, których często nie można się na pierwszy rzut ucha doszukać.
Niemniej o ile progres tu opisany dało się usłyszeć także na PC w trybie bit-perfect, nie był on tak wyrazisty jak na serwerze, choć wciąż wymaga lepszego sprzętu i może wychodzić tym mniej wytrenowanym słuchowo użytkownikom bardziej w dłuższych odsłuchach. Największymi beneficjentami są tu o dziwo K1000, które zyskują na czystości, wspomnianej szerokości, dynamice, ale także i holografii. Z tym że pamiętać należy, że gra tu de facto cały tor i każdy element będzie się liczył.
COAX/OPT
Złącza te są obsługiwane przez Essence ST i o tyle jest to wygodna formuła, że karta jednocześnie podaje sygnał analogowy i cyfrowy na swoje wyjścia. Możliwe jest więc pracowanie z np. wyjściami RCA pod torem kolumnowym i jednocześnie wyłączenie pilotem wzmacniacza, by palcem włączyć Pathosy i przełączyć się błyskawicznie na słuchawki bez konieczności ustawiania jakichkolwiek wyjść audio w serwerze. Bardzo proste i wygodne, ale też pozwalające na współpracę np. K1000 i kolumn. Jednocześnie.
Essence STX z PC grał po COAX bardzo podobną jakością jak złożony serwer, również notując lepszą dynamikę, mniejsze wrażenie „chropowatości” na sopranie i wyższej średnicy, zaś sam dźwięk miał lepszą głębię względem tego, co notowałem na Converto w trybie COAX na DirectSound. Serwer zaś „zalegalizował” taką sytuację, dodając tego wszystkiego jeszcze minimalnie po trochu. W pierwszej chwili myślałem, że jest to efekt placebo, ale każdy odsłuch, nawet po kilku dniach przerwy, sprowadzał się do subtelnej, acz jednoznacznej konkluzji.
Przy czym należy wspomnieć, że wyjście COAX nie gra identycznie jak USB. Różnica sprowadza się do tego, że po USB mam większą scenę na szerokość i jakby delikatnie jaśniejsze granie. Na gnieździe koaksjalnym zaś uzyskuję większą głębię kosztem szerokości oraz delikatnie cieplejsze granie, bardzo delikatnie. Pierwszy tryb jak pisałem świetnie pasuje do K1000, ale drugi za to bardzo dobrze pasuje do LCD-XC. Tak też się najczęściej łapałem z odsłuchami, sprawdzając jedną i drugą parę w praktyce.
Sprawdzając wyjścia na innych urządzeniach natomiast, potwierdziło się, że nie jest to różnica wynikająca stricte z samego Converto, a zasada ogólna. Optyk w tym wszystkim jest natomiast mniej przestrzenny i bardziej matowy, a co jest zasługą prawdopodobnie tego, że mój kabel ma na sobie przelotkę Monacor z Toslink na mini-Toslink, czyli z klasycznego trzpienia optycznego na jack światłowodowy. Wprowadza to zniekształcenia wiązki i powoduje, że bufory zaczynają korygować utratę części informacji. Wiele osób mylnie sądzi, że sygnał cyfrowy w postaci kabla optycznego jest zawsze niezmienny, ale ma miejsce tam chociażby konwersja sygnału z elektrycznego na optyczny i przez to jest to temat kontrowersyjny, którego nie będę tu poruszał. Jeśli jednak tanie kable optyczne nie były w stanie pracować z sygnałem wyższym niż 24/96, a czasami nawet ten sprawiał im problemy (cisza, brak sygnału), zaś zmiana trybu problem rozwiązywała (lub zmiana kabla na markowy), to znaczy że temat jest znacznie bardziej ciekawy niż tylko agresywne zachowania i powielanie nudnych tekstów o obłych zerach i ostrych jedynkach.
W każdym razie, w moim systemie sygnał optyczny wykorzystuję bardziej jako awaryjny, który potrafił uratować mi skórę np. przy rzeczonym Bursonie Conductor V2+ (mocne przebicia po USB i COAX od PC gdy był ustawiony w jednym z pokoi), ale i nie tylko. Zwłaszcza że potrafi transportować sygnał na większy dystans niż USB i COAX. Niemniej to właśnie te złącza były priorytetowe i po obu udawało się uzyskać świetne efekty. Finalnie zatem podzieliłem je sobie zadaniowo tak, aby mieć pod serwerem możliwość podłączenia się sygnałem USB (domyślny) i OPT (zapasowy), rezerwując COAX na potrzeby pracy via ASIO z PC. Teoretycznie mógłbym jednak wykorzystać drugie gniazdo USB specjalnie na potrzeby PC i COAX przerzucić na serwer. Także opcji w razie czego trochę jest i mimo wszystko będę zabiegał o to, aby mieć możliwość podłączenia się za pomocą S/PDIF do serwera, gdyż z racji działania wyjść jednoczesnych, nie musiałbym przełączać się na serwerze na wyjście RCA aby skorzystać z systemu kolumnowego. Z kolei optyk ma to do siebie, że izoluje prądowo i zapobiega przenoszeniu przebić z PC. Cokolwiek by nie mówić i czymkolwiek się nie podłączyć, względem STX i natywnego USB za każdym razem jest czyściej, z większym angażem, dynamiką, po prostu lepiej.
Wyjścia analogowe
Tak jak pisałem we wstępie, należy pamiętać, że jest to urządzenie projektowanie przeze mnie, pode mnie. Stąd też w zamierzeniu nie miało być to ani królestwo neutralności, ani też naśladownictwo Pathosów lub jakiekolwiek konkurowanie z nimi na klasowość i możliwości. Dominowały u mnie intencje stricte korekcyjne pod konkretny sprzęt, którym są tu Sennheisery HD800. I to z ich perspektywy (ale też i K1000) będę się w temacie dźwięku sekcji analogowej wypowiadał. Zwyczajowo będzie też trochę dygresji i wtrąceń (pozornie nie mających z tematem nic wspólnego), ale przede wszystkim rozbudowywać będę systematycznie opis o kolejne połączenia różnych OPA, obserwacje, wnioski i z krótkim podsumowaniem na końcu każdego akapitu.
2x OPA2111KP + TPA6120A2 (tylko HP-OUT)
Jeśli ktoś kojarzy moją bardzo pozytywną recenzję Coplanda DAC 215, to moja opinia o tym sprzęcie się przez lata nie zmieniła. Nadal mam ogromne poważanie dla tego urządzenia i nie miałbym absolutnie nic przeciwko, by zagościło u mnie na stałe, jeśli tylko nie przykładałbym tak wielkiej wagi do bezwzględnej synergii z K1000. Ale takiej naprawdę bezwzględnej, która jest tak mocno dokręcona, że każdą śrubkę sprawdza się po 5 razy, czy aby na pewno została należycie dokręcona. Było to na moje uszy urządzenie stojące w klasie Bursona CV2+, choć też prawdopodobnie bez ryzyka zaistnienia sytuacji z akapitu o bezpieczeństwie słuchawek. W dużej mierze mija mnie ten kielich i o ile jest mi autentycznie żal użytkownika z powodu jego straty, tak mimo wszystko jestem mu wdzięczny za podzielenie się ze mną swoją (smutną) historią, bo czyni to człowieka mądrzejszego o kolejną wiedzą i dowód na to, że „nigdy nie wiadomo”. Na szczęście dla niego, alternatywą jest właśnie rzeczony Copland, choć wcale nie taką tanią, to wciąż tańszą sumarycznie niż Pathosy. Do dziś przyznam zastanawiam się, czy aby dobrze zrobiłem kosztując się na nie zamiast na DACa 215, ale ponieważ uparłem się na system wewnętrznie zbalansowany i dopasowany maksymalnie pod K1000, za każdym razem gdy je odpalam, jakoś żal znika. Wychodzi drożej, owszem, a także trudniej, bo trzeba było się nagimnastykować – często w ciemno – z wieloma dodatkowymi elementami i kablami, ale z tymi słuchawkami efekt końcowy to jest coś po prostu wspaniałego. Coplandowi natomiast brakowało troszkę wykończenia na dole (miękki bas) i przede wszystkim na średnicy robiła się nadmierna „buła”. Problem banalny do zdiagnozowania: za dużo średnicy do już średnicowych słuchawek. Gdybym miał tylko HD800, albo coś w stylu np. HE1000 czy ADX5000, a pal licho, nawet Utopie, można byłoby się faktycznie mocno zastanawiać.
I tak naprawdę w sumie tylko te dwie rzeczy – synergia oraz interbalans – zadecydowały zakupowo za Pathosami, jako drugimi w kolejce znanymi mi układami (aczkolwiek wtedy jeszcze tylko Aurium). Niemniej nie zmienia to faktu, że słuchawki takie jak HD800 i wiele też im podobnych, które mimo wszystkich swoich walorów mają też konkretne wady i płynącą z nich kapryśność względem toru, skorzystałyby jednak mimo wszystko lepiej z toru grającego inaczej, niż Pathosy. Nie żeby grały obecnie jakkolwiek źle, ale stopień korekcyjności, wymagający stania się wręcz karykaturalnością, jest wciąż możliwy do posunięcia o ten krok-dwa dalej. Jednocześnie fascynują mnie w tym wszystkim swoim skomplikowaniem w tej materii i potencjałem akustycznym.
W ich przypadku myślę, że sytuacja jest taka sama, jak w K1000. Nie ma jednej cudownej modyfikacji, złotego przepisu na sukces, HD800S też nie są idealne i tak samo rzecz ma się z HD8XX z Dropa, choć tam akurat pomiary wskazują, że mamy co najwyżej więcej basu i wprowadzony na stałe bardzo subtelny efekt kocyka na sopranie. O tym efekcie w kontekście HD800 pisałem w ich recenzji w aktualizacji o niestandardowym okablowaniu. O ile nie jest to zamierzenie użytkownika (u mnie na Conductorze kiedyś owszem, było), jednak przy HD800 i w kontekście wielu różnych urządzeń na których słuchawki te były sprawdzane, ostatecznie zdecydowałem się na okablowanie nie jednoznacznie ciepłe, ale znacznie bardziej wyważone, uniwersalne, robiące wszystko dobrze i o ile wygładzające dźwięk, to nie do poziomu inwazyjnej korekcyjności.
W ostatnich etapach egzystencji Bursona Conductor V2+ w moich skromnych podwojach, byłem zdumiony, gdy na K1000, na wyjeździe, zagrał mi względem SC808 z 3x SS V5i lepiej tylko w zakresie sceny i rozmachu, może troszkę też dynamiki. Wszystko inne jednak było identyczne jak na SC808, przede wszystkim tonalnie. Także „da się” i nie trzeba wydawać przy tym fortuny. Trzeba tylko wiedzieć w co i jak uderzyć. Zwłaszcza, że aktualne iteracje Conductora o numerze 3, nie robią z tego co słyszałem aż tak wielkiego wrażenia na użytkownikach ze względu na skupienie się przez Bursona bardziej na scenie za cenę jaśniejszej, chudszej tonalności. W prostej linii może to pasować do słuchawek cieplejszych i ciemniejszych, ale na dokładnie tej samej zasadzie ma miejsce dopasowanie brzmienia ST-3200A do HD800.
HD800 są zresztą o tyle ambitnymi słuchawkami, że w dłuższym rozrachunku nieekonomicznymi, a uwagę tą można przełożyć myślę także i na modele HD800S oraz HD8XX. HD820 trzymam poza nawiasem, ponieważ są to słuchawki bardzo, ale to bardzo specyficznie brzmiące, a czego dowodem są chociażby pomiary akustyczne na blogu w ich recenzji. Raz jeszcze dziękuję p. Grzegorzowi za możliwość ich posłuchania, nawet jeśli konkluzja z niej płynąca nie jest im specjalnie przychylna.
Ale wracając do nieekonomiczności, bo to słowo-klucz wbrew pozorom. HD800 zostały zaprojektowane wokół konkretnego efektu akustycznego i mało osób zdaje sobie sprawę z tego, że przetwornik z HD800 wyjęty z ich aktualnej komory akustycznej, przypominającej talerz od sokowirówki, gra dźwiękiem ciepłym (!) i to w rejonie dokładnie tym samym, gdzie złożone w całość 800-tki notują wybicie na sopranie. Mamy więc w tym momencie nie tyle przetwornik, co czystą fizykę. Będzie tu przynajmniej kilka sposobów na podejście do tematu – od logicznie oczywistej zmiany komory akustycznej na inną o znacznie mniejszej refleksyjności, przez modyfikacje akustyczne i wymianę okablowania, po modyfikacje w obrębie toru i synergii. W rzeczywistości na finalny kształt dźwięku HD800 pracuje suma wszystkich elementów, tych większych i drobniejszych. Ale też swoiste konsekwencje.
Wyobraźmy to sobie w formie przerzucenia problemu na liczby. Jeśli każdy drobny detal daje np. 1-2% lepszego dźwięku (tj. np. stonowania zakresu 6 kHz bez ruszania sceny na minus), to dziesięć takich detali może dać przynajmniej 10-20% umownej poprawy. Zależy ile będzie nas kosztowało osiągnięcie takiej poprawy, ale zauważmy dwie rzeczy: zmiany potrafią się wzajemnie kumulować, a jeśli tak, to górne 20% tego przedziału to już sporo, zarówno matematycznie, jak i skalą przy takiej klasy słuchawkach. I nie jest to obserwacja ograniczona tylko do Sennheiserów, a dziejąca się zawsze. Pojedynczy drobny detal i ten jego 1% zmian mieści się w granicach błędu pomiarowego. 2% zmian w granicach placebo. Można to pominąć. Natomiast trzeba być głuchym, aby 20 procent nie usłyszeć. Problem jednak w tym, że często nie będziemy w stanie dojść do tych 20% (cały czas posługuję się tą wartością jako przykładem), jeśli każdą rzecz będziemy testowali pojedynczo, a nie sumarycznie. A jeśli już sumarycznie, to z reguły oznacza to po prostu koszty.
To wszystko leży właśnie u podstaw przynajmniej „zabawy” ze słuchawkami, choć patrząc po pieniądzach jakie to hobby pochłania, jest to w istocie droga zabawa dla dużych chłopców, którzy zamiast wydawać na ogromne telewizory i kina domowe, tudzież komputery i konsole do gier, zmagają się z dwoma mini-głośnikami montowanymi na głowie i tu też szukają dla siebie przyjemności z obcowania z medium, jakim jest muzyka, albo nawet i sam dźwięk. Można to traktować jako rzecz odpychającą, bo jednak cały czas za „tylko” słuchawki trzeba zdrowo zapłacić (używane HD800 w dobrym stanie dobijają już u spekulantów do poziomu 6-7 tys. zł) i tylko po to, aby się z nimi szarpać, jakby nie mogły zagrać tak jak trzeba wprost z pudełka. Można też traktować jako wyzwanie i odkrywać zastosowania takich słuchawek w praktyce, zwłaszcza w tych obszarach, których normalnie byśmy nie brali pod uwagę.
Moją przykładowo intencją było zastosowanie ich w roli słuchawek do benchmarkingu sprzętu. Wykorzystując ich kapryśność na tor, precyzję, scenę, konstrukcję i właściwości przetworników. Muzycznie okazały się świetne do elektroniki i ambientu, a w praktyce bajecznie wygodne do gier. Wszystkie modyfikacje i zmiany mają natomiast na celu rozszerzenie ich zastosowań. I zaspokojenie przy tym ciekawości za tym gdzie kończy się w ich przypadku ta mityczna „królicza nora”. Zwłaszcza przez wzgląd na szumiące mi wciąż w głowie relacje, że po modyfikacjach są w stanie ścigać się z Focalami Utopia. A to mimo wszystko wysoki dosyć przeciwnik.
Zabawy te są jednak i tak ograniczane przez niewymienny układ TPA6120A2. Jego to bowiem dźwięk będzie zawsze generował „skazę tonalną” na uzyskiwanym finalnie wyjściu. Ale mimo to wystarczy, że wszystko dookoła będzie dla niego lepszym towarzystwem i może to zagrać wciąż bardzo dobrze. Przypomina mi się np. NuForce Icon HDP, który takowy układ też miał, a grał kompletnie inaczej i do tego naprawdę bardzo dobrze. Nie wiem niestety jak jego warianty z Dropa, ale ogólna teza, jaka wyłania się z tych kilku czy kilkunastu wniosków i obserwacji, jest następująca:
Postawić na mądrze ocieplone brzmienie częściowo ograniczonego układu, po czym podnieść jakość wszystkich otaczających go elementów i samych słuchawek, aby wywrzeć na niego wpływ i przezwyciężyć jego limitacje tak mocno, jak tylko się to w granicach zdrowego rozsądku da.
Niekoniecznie udałoby się to zrobić w sposób uniwersalny, ponieważ raz, że nie było takiej potrzeby (są Pathosy przecież), dwa, że efekt synergiczno-korekcyjny będzie wtedy mniejszy, niż w przypadku wyspecjalizowanego układu. Choć samo w sobie jest to ograniczeniem, tworząc pewien paradoks, na szczęście jest to też jednocześnie wysoce zasadne i mające zastosowanie nie tylko z HD800. Ma to szansę tak samo dobrze zagrać z LCD-XC, które także należą co słuchawek jaśniejszych, ale nie analitycznych jak 800-tki, a monitorowych. Tak samo odnajdą się modele niskopółkowe, jak K271 MKII. Czyli mam już w tym momencie trzy modele słuchawek z pięciu pełnowymiarowych, jakie posiadam. I co więcej każda z tych par jest także na swój sposób dostosowana tak, aby eksponować swoje zalety, a redukować wady.
Mało tego, system kolumnowy również może być tu wielkim beneficjentem, bo o ile zagra klasowo gorzej od Pathosów, w pewnym swoim zakresie wykazuje cechy kwalifikujące do tych samych zabiegów korekcyjnych co Sennheisery. Nie, nie mam tu na myśli sopranu, a pozycjonowanie środka sceny i ogólnie nadanie całości jeszcze bardziej przyjemnego, ocieplonego smaczku, który nie będzie powodował efektu kocyka.
To więc, na co zwrócić chcę uwagę, to otoczenie, w jakim serwer będzie pracował. Nie jest on „sam sobie panem wiszącym nad dzbanem”, a bardziej elementem większej całości, częścią misternej układanki w ramach konkretnego systemu. A to służy tu za usprawiedliwienie za tym, aby wystroić go tak a nie inaczej: na cieplejsze granie nastawione na dużą czystość i ekspozycję średnicy. Dźwięk nie jest jednoznacznie ciemny i ciepły, tak samo jak np. wymiana kabla na ciepłą miedź 8-żyłową nie spowoduje, że punkt sybilacyjny w HD800 magicznie zniknie. Ani kabel, ani synergia, nie zastąpią EQ i nie wyleczą „złych” słuchawek z określonych dolegliwości. Ale mogą je załagodzić, czasami nawet bardzo.
W HD800 naprawdę ciekawie słuchało mi się elektroniki po wymianie okablowania na Fanatum Emmoni, do tego stopnia, że skłaniam się ku dopiskowi Reference. Opisywałem tenże kabel w aktualizacji recenzji HD800 na blogu, ale sens jego nie tkwi wcale w jakimś mocnym ociepleniu. Właśnie po to, aby dać dojść do głosu torowi i drzemiącej w nim synergii. Próba odwalenia całej roboty za tor skończyłaby się tak, jak w moim poprzednim kablu do HD800, opartym właśnie o 8-żył OCC 7n, który konfekcjonowany był przez zupełnie inny podmiot. Tam problemem był słyszalny efekt koca, który pojawiał się w odsłuchach poza Aune S6/S7, czasami nawet na CV2+, choć aby być uczciwym to akurat na Bursonie bardzo rzadko mi się to zdarzało. Chodzi o obszarowe wygaszenie góry przewodnikiem. HD800 mają sopran dosyć punktowo podkreślony, natomiast przewodnik bardziej sprawiał wrażenie dopasowania do czegoś w stylu T1 v1, a więc sopranu rozlanego. Przynajmniej ten, który był zastosowany w kablu który posiadałem. W swoim oparłem się natomiast o filozofię uniwersalności, balansu między różnymi kierunkami, z subtelną dominacją muzykalności i ciepła, ponad całkowitym jej królowaniem. W ten sposób, niczym w praktycznym zastosowaniu filozofii yin-yang, udało się uzyskać zarówno pełny bas, holograficzny przekaz, detaliczną górę, wielką scenę, jak i wygładzenie brzmienia oraz wspomniane subtelne ocieplenie.
Jeśli brać pod uwagę, że słuchawki te są domyślnie są bardzo dokładne i analityczne, zmiany powinny być jednoznacznie korzystne, ale też nie wpływające jednocześnie na zatracenie swoich przymiotników. HD800 bowiem można wbrew pozorom dogasić i robić z nich coś na kształt takich wygodniejszych HD650, ale odbywa się to za cenę w zasadzie wszystkiego, czym mogłyby się poszczycić. Scena redukuje się bardzo mocno, dźwięk robi brudny i matowy, całość dusi się, butwieje i przykrywa nienormalnie mocnym kocem.
Żeby było śmieszniej, kabel ten był tak naprawdę strzałem w ciemno i ponieważ była to maksymalna konfiguracja dla wtyków FT-800, jaką mogłem zastosować. A zastosowałem wcześniej na K1000 i to z bardzo dobrymi rezultatami. W efekcie wspomniana holograficzna średnica doznała takiej trójwymiarowości, że aż słuchawki zaczęły wykazywać znamiona nadmiernego przesłuchu międzykanałowego. Jeśli w utworze jakiś dźwięk przesuwał się mocno balansem na jedną stronę, sprawiało to wrażenie, że jeden z przetworników odmawia posłuszeństwa. To samo miałem z Audeze LCD-3 oraz LCD-4. Serwer zaś ten właśnie element koryguje. W systemie kolumnowym objawia się to jako mocny fokus na wokalu i średnicy. W HD800 jako korekcja pozycji wokalisty i kształtu źródła pozornego jakim jest. Jednocześnie bardzo mocno słychać, czy utwór w ogóle jakkolwiek wykazuje tendencję do trójwymiarowości scenicznej za sprawą swojego masteringu, czy bardziej jest mu wszystko jedno.
Bardzo często w wielu recenzjach opisuje się takie słuchawki jako „audiofilsko selektywne”, które wybierają i zagrają określone utwory nagrane w określony sposób. Przy odrobinie szczęścia – całe albumy. Czyni się to jednak od strony bardziej tonalności aniżeli konstrukcji przestrzennej i tutaj powiedzieć sobie trzeba dwie rzeczy.
Po pierwsze, w ogóle rozpatrywanie słuchawek jako przedmiotu wybierającego sobie utwory jakie odtworzą poprawnie i akceptowalnie jest kompletnym wypaczeniem i pomieszaniem priorytetów. To nie utwory są tworzone dla słuchawek, a słuchawki dla utworów, albumów, gatunków, albo po prostu – muzyki. Czasami mam wręcz wrażenie, że próbuje się nam – użytkownikom – na siłę wmówić, że jest (lub ma być) inaczej. Czyli kupujemy sobie słuchawki za te 5-6 tysięcy, aby w rezultacie zaorać swoją dotychczasową audiotekę i nawet pośród wysokiej jakości nagrań móc słuchać jako tako tylko wybranych? Nie ma to krzty sensu, a napędza raczej jedynie pusty konsumpcjonizm.
Co więcej, za wysoce błędne uznaję również opisywanie słuchawek po poszczególnych utworach tak, aby napisać więcej o samym utworze, niż sprzęcie. Osobiście nie interesuje mnie, czy dane słuchawki dobrze odtwarzają utwór X lub Y. Interesują mnie jak odtwarzają muzykę i w jakich gatunkach sprawdzają się najlepiej, a nie albumach czy pojedynczych utworach, które mogą być nagrane i zaaranżowane bardzo różnie. Wielokrotnie byłem o to proszony i w swoich recenzjach, ale nie można tak na dłuższą metę opisywać sprzętu. Od prezentacji muzyki jest dział Muzyka, zaś dział Recenzje ma opisywać jak sprzęt radzi sobie z odtwarzaniem dźwięku w ogóle. Jeśli już rozmieniać się na drobne, to opisując poszczególne instrumenty i tutaj dopiero kontekst utworu ma sens.
Po drugie, potwierdza to wyborne właściwości opisywanych słuchawek w roli modelu mającego swój ogromy potencjał do benchmarkingu, zwłaszcza scenicznego i ogólnie związanego z innymi aspektami, niż tylko ilość danych podzakresów. W typowych słuchawkach skupiamy się typowo na poziomie ubasowienia, ilości i pozycji średnicy, sopranie, scenie wielkościowo. W HD800 można natomiast sięgnąć głębiej w materię audio, oceniając mastering, czystość, szybkość, precyzję, trójwymiarowość, przejścia międzyosiowe, a nawet kształt źródeł pozornych. Oczywiście wszystko to jest kwestią umownej nomenklatury audio i pod koniec dnia można w tych pojęciach przemycić tak naprawdę wszystko, co tylko się chce, a co dowolnie zdefiniuje sobie recenzent.
Co to ma wspólnego z tym urządzeniem i czemu opis dźwiękowy przypomina powtórkę z recenzji HD800? To, że Sennheisery są tu celem samym w sobie. Występują w roli narzędzia opisowego, a także swoistego klucza do zrozumienia celów, jakie próbowałem sam sobie (i jemu) tu nakreślić oraz powodu stworzenia wszystkiego dookoła, wliczając w to kable czy tablet sterujący.
Swoje rozterki ma temat walki z akustyką HD800 opisałem dokładnie też w recenzji KOSSów ESP/950, które były słuchawkami mocno przeze mnie konfrontowanymi z m.in. tu opisywanymi. Cechy te łączą się w moim odczuciu absolutnie nierozerwalnie z istotą projektowania, albo może inaczej: kształtowania, brzmienia sekcji analogowej. 800-tki mają dokładnie ten sam problem co pozostałe słuchawki z tego przedziału klasowego: K812 i T1 (w domyśle wersja v1). Ich przymiotniki i ogólnie charakter wyróżniający na tle innych słuchawek wynika wprost z refleksyjności fali dźwiękowej. Wręcz zaryzykowałbym stwierdzenie, że wszystkie trzy pary są „celowo zepsute”, ponieważ tylko tak mogą uciec od grania wręcz zwyczajnego. Dodanie zwykłej warstwy płótna potrafi wpłynąć w HD800 nawet nie na tonalność góry, bo zbić peaku w 6 kHz nie zbije, ale na wprowadzenie efektu matowości dźwięku, gorszej rozdzielczości, a przede wszystkim gwałtownego zwijania się ich trójwymiarowości. Jest to klasyczny układ „coś za coś” i dlatego mimo wszystko skłaniam się ku tezie, że o ile modyfikacje są w stanie tym słuchawkom wiele dać, będzie to zawsze odbywało się na zasadzie penalizacji sceny, a to właśnie ona jest wyróżnikiem niemałym w HD800. Co więc pozostaje? Okablowanie już mam załatwione, więc albo korekcje (DSP, EQ), albo ogólna manipulacja torem.
To ostatnie jest właśnie tym, co – rad nie rad – muszę tu wyegzekwować. A żeby to skutecznie uczynić, trzeba posiadane przez siebie słuchawki bardzo dobrze znać i wiedzieć jakie dzieją się w nich zależności. Jednym słowem co z czym będzie mogło uzyskać należytą synergię i to nie na warstwie ogólnej, że słuchawki X będą pasowały do urządzenia Y, ale wchodząc znacznie głębiej w materię i analizując cecha po cesze. I dopiero teraz można przejść do faktycznego opisu brzmienia tego co namodziłem, ale też mając w pamięci to jak grało to wcześniej.
Szybki niski bas komponował się dosyć dobrze z nieco wolniejszym skrajem dolnym serwera w formie niezmodowanej, ale po modyfikacjach mam wrażenie, że dolne zakresy przyspieszyły i wzmocniły się. Nie aż tak, aby poziomem dojść do Aurium, ale czuć wzrost i linia basowa w żadnym wypadku nie wykazuje oznak słabości i niedomagania. Nawet na K1000 jest w tym względzie nad wyraz dobrze.
Holograficzna średnica ładnie się wpasowuje w nieco bardziej skupiony środek, choć przed modyfikacjami miał tu miejsce wciąż słyszalny „efekt buły” na średnicy, co o dziwo z tymi słuchawkami brzmiało to naprawdę rewelacyjnie i nie miałem wrażenia, że dźwięk robi się na środku pusty. Po zmianach z kolei bardziej akcentowany jest złoty środek między holografią, a skupieniem i nasyceniem. Dźwięk nie jest taki zbity, bułowaty, nie posiada na sobie specyficznej Texasowej warstwy. Wzrosła transparencja i dynamika, kategoriach obiektywnych prezentując naprawdę całkiem dobry poziom.
Sopran ulega wygładzeniu, ale unika efektu koca o którym tu już pisałem. Tu zadziwiająco doszukałem się tego, że Astell SA700 potrafił jeszcze bardziej wygładzić zakres 12-14 kHz. Brzmiało to bardzo ciekawie, choć na serwerze miało to swój aspekt referencyjny mimo wszystko, że zakres ten nie był subtelnie odpuszczany. Także nie jest to niestety do końca efekt korekcyjny na jaki liczyłem, ale też może to i lepiej, bo jak znam życie odbyłoby się to kosztem sceny, a co wykazały testy z cieplejszymi kośćmi na buforze. Zawsze penalizacja ujawniała się w scenie. Albo więc rybki, albo akwarium, albo coś pośrodku i ta ostatnia opcja jest dokładnie tym, jak odbieram dźwięk tego urządzenia.
Scena co do zasady na słuchawkach zachowuje wszystkie swoje atuty i przymiotniki wielkościowe, aczkolwiek słuchawki wydają ją trochę w zamian za nadgonienie sceny z samego urządzenia, która choć nie jest tak wykwintna jak w Converto, jest bardzo optymalnie skrojona i nie ogranicza słuchawkom możliwości pokazania się od bardzo przestrzennej strony. Po prostu nie stawia tej subtelnej „kropki nad i” w temacie holografii i dokładności, a co wynika z faktu niewymienności TPA6120A2, mającego pewne swoje ograniczenia. Ponad wszystkim nad standardową kartą dominuje też bardziej zaznaczone czarne tło, lepsza dynamika i większa transparencja w dźwięku. Zmiany absolutnie pozytywne i bardzo przeze mnie pożądane. Różnica między STX’em jest w tym rejonie bardzo mocno nakreślona i serwer idealnie wpasowuje się między to, co oferuje goły Essence (nawet z Bursonami na sekcji I/V), a Pathos.
Na K1000 taki układ sił sprawdzał się gorzej gdy karta była niezmodowana, bo tak samo jak w DACu 215 następowała błędna alokacja nacisku. Nie było potrzeby za zmiękczonym niskim skrajem czy bliską średnicą, bo w rzeczywistości to te dwa elementy najbardziej są dla mnie w AKG słyszalne na tymże urządzeniu. Aurium dlatego gra z nimi lepiej, bo podkreśla bas i nie pompuje średnicy objętościowo. Wręcz można powiedzieć, że operuje na dokładnie tych samych cechach co Emmoni. Dlatego się to tak dobrze ze sobą dogaduje na obu parach słuchawek, choć wrażenia te wykraczają także i poza tenże sprzęt. HD800 puszczone wprost z Converto także radzą sobie zauważalnie lepiej, niż gdy to miało miejsce na kablu fabrycznym. Ale o dziwo bardzo dobrze słuchało mi się K1000 z przedniego panelu serwera po modyfikacjach i nie miałem już wrażenia „przesłodzenia” środka. Także zmiany jakie wprowadziła elektronika były naprawdę super, a w bezpośrednim porównaniu na HD800 między ST-3200A a SA700 słyszałem mocniej zaznaczony napęd tego pierwszego, gładszy zakres 12-14 kHz tego drugiego oraz bardzo zbliżoną klasę obu urządzeń, czemu wciąż nie mogę się przyznam nadziwić. Gdybym nie wiedział co siedzi w tym urządzeniu i ktoś mi powiedział, że to stary Xonar ST, nie uwierzyłbym. Może po wsłuchaniu się w subtelne przebitki TPA6120A2 na słuchawkach bym coś wykrył i przyznał rację, ale niech mnie kule biją, bo to co się tu dzieje jest doprawdy zdumiewające.
Słucham sobie np. albumu Bena Prunty – „Chromatic T-Rex” i na HD800 jest to świetna zabawa, w której są zarówno czystość sygnału, jak i efekty sceniczne. Przełączenie się na STX’a i od razu czar pryska. Przełączenie się na Pathosy i oczywiście jest lepiej, ale też o ile drożej. Także pod względem stosunku ceny do możliwości (do wyceny dokładnej jeszcze dojdę na sam koniec artykułu) to urządzenie to naprawdę bardzo wysoka półka. Wyższa byłaby już tylko z SC808, ale będę się z tym chyba do końca w tym artykule powtarzał, zaś świadomość tego istnieje na dobrą sprawę tylko dlatego, że utwory których słucham doskonale znam i nie są to dla mnie rzeczy słyszane pierwszy raz. Obarczone są więc klątwą wiedzy i słyszenia ich na sprzęcie lepszym, a to zawsze powoduje zostawanie tejże świadomości gdzieś z tyłu głowy. A i tak bardzo często zdarzało mi się, że niby doskonale znany mi album czy utwór, np. Lilyrank – „Darkhouse”, powodował dosłownie ciarki na plecach i absolutny geniusz rozłożenia planów i dokładności, podczas którego to podziwiania tak samo dobrze grało mi to wprost z ST-3200A, jak i systemu Pathosa.
Jeśli podsumować całokształtem odsłuchy, najczęściej rozkład sił przebiegał tak, jak się tego pierwotnie spodziewałem, tj. lepiej słuchało mi się Pathosów z K1000 z serwerem w roli transportu cyfrowego, a samego serwera bezpośrednio z HD800, mimo pewnej różnicy w finalnej jakości wykończenia dźwięku i tego ostatniego słowa w scenie. Trudno byłoby jednak sobie wyobrazić skalę potencjalnych modyfikacji, która musiałaby mieć miejsce w ST, aby ten zrównał się z duetem Converto i Aurium. Zadowolony natomiast jestem ze zbudowania dla HD800 osobnego systemu dedykowanego, na tej samej zasadzie na której zbudowałem tor pod K1000, choć też nie udało się do końca zrealizować wizji systemu stricte korekcyjnego. Sprzęt zachował wciąż ogromną dozę uniwersalności i może przez to jakość stoi na tak wysokim poziomie. Aczkolwiek prawdziwe testy zaczną się, gdy zamiast SA700 na stole pojawią się inne wzmacniacze i integry, które być może zagrają lepiej, być może gorzej, ale na pewno dadzą szerszy pogląd na to w którym miejscu pozycjonuje się wartością dźwiękową to, co zbudowałem.
A co z LCD-XC? Co prawda nie miałem do nich dorobionego kabla z serii Emmoni, a jedynie specyficzny, muzykalny prototyp 8-żyłowy na jack 6,3 mm, ale one z racji swojej sygnatury dźwiękowej i preferencji scenicznych niezmiennie dobrze czują się na wszystkim, co przestrzenne. Choć na HD800 jestem w stanie na ST ustalić nawet na jakiej wysokości dźwięk jest renderowany, dla XC musiałbym przejść na pełny tercet kości scenicznych i transparentnych najprawdopodobniej.
Czas więc na małe podsumowanie. Cofając się mocno do początku tego akapitu, chciałbym przywołać jeszcze raz to co pisałem o sumie wszystkich elementów składających się potem na całościowy, misterny obraz. Może zabrzmi to dziwnie w kontekście opisu dźwięku, a nie stricte układu elektronicznego, ale większość aspektów jest tu dokładnie względem siebie policzona. Zmiana jednego elementu może coś poprawić, ale też i wszystko zniszczyć. Może, ale nie musi. W myśl starego porzekadła audiofilskiego: „wszystko ma wpływ na wszystko”. I wychodząc od tegoż, każdy z elementów był tu pod siebie dobierany i mozolnie testowany. Dlatego efekty końcowe mogę odtrąbić jako sukces i rzecz najważniejszą tego urządzenia, czyli jakość dźwięku, niczym etap kontrolny można 0dznaczyć jako wykonany. Oczywiście można zaryzykować próby z czymś innym, lepszym, droższym, a nawet sekcjami normalnych DACów USB wyciągniętymi z obudów, ale każdy kij ma dwa końce i każda taka zmiana będzie wymagała czasami kompletnego zaorania całej konstrukcji i wymyślania jej na nowo. Nawet samo użycie risera taśmowego może powodować artefakty i błędy, w efekcie powodując, że urządzenie po prostu nie będzie mogło poprawnie pracować. Tak było u mnie i dopiero kątowy krótki riser na planie „L” rozwiązał mi wszystkie problemy. Bez tego obawiam się, że musiałbym z projektu implementacji integry słuchawkowej rezygnować, albo zrobić to w innej, znacznie brzydszej obudowie.
Na tą chwilę pakiet funkcjonalny, jaki prezentuje opisana tu maszyna, jest dla mnie więcej niż wystarczający. Do tego zdroworozsądkowy na tyle, abym czerpał z niej przyjemność co do centymetra i co do jednej nuty, aż czasami zastanawiając się, czy aby przypadkiem gra tu nie tyle sam sprzęt, co satysfakcja z jego zbudowania. Ale raczej to pierwsze, bo przełączając się między STX a ST i na odwrót, raz będąc w PC a innym razem na pokładzie serwera, różnica zawsze jest słyszalna na plus tego drugiego, nawet na najtańszych posiadanych przeze mnie słuchawkach, nie tylko HD800.
Co też chcę powiedzieć, przy planowaniu sekcji analogowej zawsze trzeba mieć w głowie pełen obraz i świadomość całości urządzenia, a nie tylko samego tego elementu. Każdy sprzęt audio ma swoją manierę i potencjał, także na zmiany. Przykładowo, jeśli kierować się tylko kartami dźwiękowymi, taki Tempotec Serenade grał jednoznacznie ciepło i teoretycznie mógłby nadać się do roli źródła dla HD800 lepiej. Ale tylko wtedy, gdy porzucimy plany za zagospodarowaniem sobie panelu przedniego oraz będziemy chcieli zagrać maksymalnie na efekt synergii tonalnej w stronę ciepła. Da się oczywiście z Serenade zrobić kartę grającą jaśniej, ale to też może być zadanie troszkę wbrew jej naturze. Tak samo jest z SC808, która z kolei od startu jest kartą jasną i przestrzenną. Tutaj już więcej sensu jest za wejściem z cieplejszymi słuchawkami. ST i STX leżą gdzieś tak po środku obu, w miarę dobrze radząc sobie zarówno przy przechyleniu w stronę ciepła, jak i jasności, choć bez wybitnych efektów przy dochodzeniu do skraju takiego ekstremum.
Niemniej to, że zastosujemy np. SC808 tylko dlatego, że jest wysoko oceniana, ma super DACa i w ogóle jest to jedna z najlepiej grających kart do PC, wcale nie musi być automatycznym przepisem na sukces. Zwłaszcza, gdy w grę wchodzi jeszcze temat stabilności pracy, podłączenia, organizacji wnętrza i przestrzeni, temperatur, serwisowalności, możliwości użytkowych i szeroko rozumianych konsekwencji praktycznych. A nawet jeśli zastosowalibyśmy SC808, to gwarantuję, że np. kompletnie fabryczne HD800 dogadałyby się słyszalnie gorzej, niż na obecnie zamontowanym tu ST-ku. Znów więc: suma elementów i całościowy obraz.
Jak więc mądrze zaplanować takie urządzenie? Obawiam się, że bez doświadczenia jako takiego będzie ciężko. Dla mnie osobiście wszystkie opisane tu urządzenia nie są znakiem zapytania. Wiem jak grają, wiem z czym grają, a z czym dogadać się im średnio uda. Użytkownik bez takiej wiedzy ma niestety bardzo utrudnione zadanie. Być może będzie musiał zrobić tak jak ja, a więc po prostu zaufać. Czy to swojemu przeczuciu, czy uszom, czy jakimś opisom i recenzjom. Przytaczane tu ściganie się HD800 z Utopiami nie jest bowiem oparte na moich własnych odsłuchach, bo Utopie słyszałem tylko na AVS i to w kompletnie bezsensownej konfiguracji z celowo przeciążoną jedną końcówką mocy. Opieram się natomiast na relacjach posiadaczy obu par, którzy te pierwsze modowali, a drugie w efekcie sprzedawali, jako nieusprawiedliwiające tak dużej różnicy w cenie. HD800 kosztowały bowiem jako nowe 5000 zł podczas gdy Utopie można dostać za 18000 zł. Ile jest prawdy w tych twierdzeniach naturalnie nie wiem, ale może kiedyś się dowiem. Wiem natomiast, a raczej czuję, że niekoniecznie muszą to być twierdzenia wyssane z palca. I faktycznie już po dwóch modyfikacjach, a więc wymianie okablowania wewnętrznego i zewnętrznego, zaczynam doświadczać z ich strony tego potencjału i dźwięku, który robi na mnie piekielnie dobre wrażenie, jak nigdy wcześniej. Choć wciąż są to te same 800-tki i wciąż jest ta nosowa górka w 6 kHz, mimo że bardziej strawna i nieobciążona konsekwencjami w dążeniach do jej redukcji. Tylko że znów – musiałem zaufać, słuchawki trzymając przy sobie i konsekwentnie odmawiając na przestrzeni czasu ofertom ich odkupienia. Kto wie, może dzięki temu jedno z przytaczanych tu ogłoszeń z wyspekulowaną w górę ceną nie opiewa na mój własny egzemplarz?
W każdym razie, według mnie tak duży stopień dopasowania wszystkich elementów do siebie nie mógłby być osiągnięty bez posiadania w tym zakresie wiedzy i doświadczenia. Empiryczność jest tu wręcz fundamentem, warunkiem koniecznym. Od pewnego momentu nie da się takiego sprzętu zaprojektować wirtualnie i na papierze, choćbyśmy nie wiadomo jak dobrze wszystko mieli policzone. Musi wejść do gry odsłuch. A ponieważ takie karty nie są już produkowane, nie wchodzi w tą grę wypożyczenie. Nie mówiąc nawet o tym, że będzie po drodze sporo czynników powodujących ryzyko niezgrania się na jakimś etapie lub w pewnej tylko części. Może się tak zdarzyć, że nasze słuchawki w ogóle nie będą chciały się dogadać z takimi kartami. Ja zaś, o ile trochę sprzętu przesłuchałem, absolutnie nie przesłuchałem wszystkiego i tym bardziej nie posiadam zdolności profetycznych, mogących pomóc w estymacji czy dany sprzęt się komuś spodoba, czy nie. To jest właśnie jedno z prawideł tematyki DIY. Użytkownik robi wszystko sam, rzuca się na żywioł i celowo ogranicza ilość poduszek powietrznych podczas jazdy. Można wiele wygrać, ale ryzyko, że się straci, także jest zauważalnie większe. Bo nawet, jeśli wszystko się uda i mamy pewność, że sprzęt X ze słuchawkami Y się dogaduje, to wystarczy problem z kompatybilnością powodujący restartowanie się, aby cały misterny plan poszedł w siną dal.
Cofając się mocno do początku tego akapitu, chciałbym przywołać jeszcze raz to co pisałem o sumie wszystkich elementów składających się potem na całościowy, misterny obraz. Może zabrzmi to dziwnie w kontekście opisu dźwięku, a nie stricte układu elektronicznego, ale większość aspektów jest tu dokładnie względem siebie policzona. Zmiana jednego elementu może coś poprawić, ale też i wszystko zniszczyć. Może, ale nie musi. W myśl starego porzekadła audiofilskiego: „wszystko ma wpływ na wszystko”. I wychodząc od tegoż, każdy z elementów był tu pod siebie dobierany i mozolnie testowany. Dlatego efekty końcowe mogę odtrąbić jako sukces i rzecz najważniejszą tego urządzenia, czyli jakość dźwięku, niczym etap kontrolny można 0dznaczyć jako wykonany. Oczywiście można zaryzykować próby z czymś innym, lepszym, droższym, a nawet sekcjami normalnych DACów USB wyciągniętymi z obudów, ale każdy kij ma dwa końce i każda taka zmiana będzie wymagała czasami kompletnego zaorania całej konstrukcji i wymyślania jej na nowo. Nawet samo użycie risera taśmowego może powodować artefakty i błędy, w efekcie powodując, że urządzenie po prostu nie będzie mogło poprawnie pracować. Tak było u mnie i dopiero kątowy krótki riser na planie „L” rozwiązał mi wszystkie problemy. Bez tego obawiam się, że musiałbym z projektu implementacji integry słuchawkowej rezygnować, albo zrobić to w innej, znacznie brzydszej obudowie.
Na tą chwilę pakiet funkcjonalny, jaki prezentuje opisana tu maszyna, jest dla mnie więcej niż wystarczający. Do tego zdroworozsądkowy na tyle, abym czerpał z niej przyjemność co do centymetra i co do jednej nuty, aż czasami zastanawiając się, czy aby przypadkiem gra tu nie tyle sam sprzęt, co satysfakcja z jego zbudowania. Ale raczej to pierwsze, bo przełączając się między STX a ST i na odwrót, raz będąc w PC a innym razem na pokładzie serwera, różnica zawsze jest słyszalna na plus tego drugiego, nawet na najtańszych posiadanych przeze mnie słuchawkach, nie tylko HD800.
Podsumowując: świetne i muzykalne kości, nie negujące efektu jakościowego i scenicznego. Choć nie jest to tak wielka holografia jak na niektórych kościach dyskretnych lub hybrydach układów scalako-dyskretnych, bez wątpienia jest to jedna z lepszych kości Burr Browna jakie mogłem gościć i fart, że karta którą zakupiłem miała je na pokładzie, jest tu istnym zrządzeniem losu. Słucha się tego przyjemnie, długo, bez zmęczenia. Czasami zatęskni się na znanych utworach za tą absolutną holografiką, ale jeśli ma to odbywać się kosztem migreny i zmęczenia, bo jednak HD800 również potrafią człowieka na nieodpowiednim torze pomęczyć, być może nie jest to w ogóle warte świeczki i należy cieszyć się, że takie fajne kosturki znalazły się w moich rękach oraz tymże urządzeniu. W wielu miejscach na pewno będą pełniły rolę punktu wyjściowego dla szukania najlepszej synergii z HD800.
2x OPA2111KP + SS V5i-D
Temat na głośnikach również jest bardzo ciekawy, bo pozwalający na lawirowanie stopniem końcowym i tu także mam wrażenie, że modyfikacje pomogły przedrzeć się brzmieniu kości na wyjście głośnikowe. Ponieważ projekt zakładał docelowo pracę na tercecie lub przynajmniej jednej kości od Bursona i bycia takim swego rodzaju powrotem do korzeni, kombinacje te chciałem przetestować również w ramach jakby standardowego pakietu brzmieniowego.
Akurat z KEFami bardzo dobrze gra zarówno AD825, dając jak pisałem wcześniej bardzo dobry „monitorowy” fokus na środku sceny, zaś SS V5i to taki przestrzenny, uniwersalny OPAMP mający wszystkie atuty sceniczno-holograficzno-strojące. Użycie czegoś przestrzennego w postaci LME49990 od razu wystrzeliłoby górę, także byłaby to opcja raczej tylko pod cieplejsze kolumny. KEFy po modyfikacjach grają inaczej niż przed, mniej siląc się na plastyczną średnicę kosztem lżejszego basu, a bardziej na zrównoważenie i mocne rozbudowanie dołu. Bardzo przyjemnie to gra z tym systemem i przyznam, że przez dobry fokus na środku częściej w trakcie testów sięgałem właśnie po tą odnogę toru, niż po Pathosa, który grał jeszcze czyściej i z lepszą holografią, ale robiło się to trochę zbyt holograficzne i zamiast podziwiać efekty sceniczne, miałem wrażenie nienaturalnego przesunięcia fazy.
Z drugiej strony na kolumnach, które są mocno plastyczne, a którymi były na początku moje Q80, mogłoby to dać naprawdę fantastyczne efekty. Niemniej zmian dokonanych na KEFach nie żałuję, bo pokazały mi ogrom potencjału jaki w nich drzemie i że niewielkimi pieniędzmi można takie kolumny wyciągać na intrygujące poziomy jakościowe. Faktycznym problemem natomiast jest coś zupełnie innego i o tym za moment, bo przy tercecie tych kości będzie to najbardziej słyszalne.
Podsumowując: przyjemne i jednocześnie holograficzne granie idące w kierunek Coplanda, ale bez modyfikacji elektroniki kość miała tendencję do wzbudzania się na buforze. A ponieważ parametry elektroniki nie są wyryte w skale, jak również sprzęt ma pracować docelowo bardzo długo w ciągu dnia, a szansa na znalezienie kości w starszej rewizji z rantem jest niewielka, finalne ryzyko trzymania nowej rewizji jest tu zbyt duże.
3x SS V5i-D
A jak spawy mają się w sytuacji przejścia na nieco (teoretycznie) lepsze wzmacniacze operacyjne? Jakość utrzymuje się na bardzo podobnym poziomie na słuchawkach, rozszerzając się na holografii scenicznej oraz przypominając tym razem już faktycznie mój system Pathosa. Nie było to moim celem, bo nie chciałem się z nim ścigać, ale też nie ukrywam że gra to niesamowicie ciekawie i czyni system bardziej uniwersalnym, chociażby nawet i pod K1000, którym taka konfiguracja kości bardzo odpowiadała.
W bezpośrednim porównaniu dźwięk jest niesamowicie podobny, również scenicznie, ale słychać, że TPA6120A2 jest tu na swój sposób elementem generującym narzut własny. Otrzymałem tu teraz bardzo zbliżony kierunek brzmieniowy o bardziej zaokrąglonych brzegach i mniejszej czystości. Taki „tańszy brak bliźniak” można powiedzieć. Na systemie Pathosa bas jest mocniejszy z Aurium, podczas gdy na ST-3200A super-najniższy bas nie ma takiego rozciągnięcia. Średnica jest przestronna i holograficzna, co jest też największą różnicą względem bliższego i przyjemniejszego klimatu OPA2111KP. Góra natomiast jest o kapkę cieplejsza, co dla HD800 akurat jest zachowanym przyjemnym atutem. Czystość? Ponownie po stronie Pathosów.
Jeśli miałoby to polegać na zrobieniu jak największego efektu „WOW” na osobie postronnej, na pewno rozważałbym zastosowanie tych właśnie kości w tercecie, może lepszych, jeśli tylko maszyna by na to pozwoliła. Holograficzna muzykalność to bowiem to, co do mnie często trafia. Tylko że znowuż słuchając na HD800 muzyki cały czas, mimo wszystkich przymiotników i wartości dodatnich, a także ograniczeń, miałem przeświadczenie rozbicia na dwa światy. Z jednej strony sceniczność kosztem jaśniejszej góry, z drugiej bardziej sprecyzowana średnica kosztem mniejszej holografii. Dźwięk przyjemniejszy i dopasowany do słuchawek, ale bardziej zwyczajny, czy też bardziej dopasowany do kolejnego projektu jaki szykuję, a także bardziej uniwersalny względem innych słuchawek, ale mniej dopasowanym do HD800. Ot dylematy. Ale w takich chwilach po prostu trzeba z tym wszystkim czasu i na spokojnie osłuchania się, aby dać wybrać uszom czego chcą częściej słuchać. Dobrze jednak wiedzieć, że wciąż jest tu potencjał na więcej i może nie tyle lepiej, co z inaczej, przynajmniej z kośćmi jakie aktualnie posiadam.
I była to najlepsza decyzja, ponieważ uszy bardzo szybko zdecydowały: zostają się kości Burr Browna. Powód – wzbudzanie się kości na różnych sekcjach karty. Do tego podniesiony jakby poziom szumu tła. Problem jest co śmieszne dosyć losowy, bo w przypadku kart fabrycznych, zarówno ST jak i STX, wzbudzał się z reguły tylko bufor, a co ostatecznie sprowadziło się do jednej kości z trzech jakie zakupiłem, wykazującej taką tendencję. Podczas testów na ST na sekcji I/V prawy kanał potrafił wykazywać zniekształcenia. Tylko prawy. Czasami zniekształcenia znikały po chwili, czasami nie. Pomogło przełożenie kości między buforem a prawym kanałem. Z kolei na STX, lewy kanał w pewnym momencie użytkowania wykazywał się narastającym sykiem/szumem, po czym efekt ten zaczął zanikać wraz z zatrzymaniem muzyki, czasami spontanicznie sam. Był to duet kości zawierający przełożoną wcześniej kość buforującą. Cały czas miałem podejrzenie, że winna jest kość mająca ślady użytkowania, ale drogą eliminacji okazało się, że jednak nie i „nadwrażliwa” jest kość z pakietu podwójnego. Już w sumie parę razy zabierałem się za reklamację, ale jakoś tak nie było czasu, aby się tym zająć. W końcu serwer przybył po modyfikacjach i podczas kolejnej żonglerki OPA, postanowiłem zrobić jeszcze jedną rundę z kością rzekomo wadliwą, tym razem tylko i wyłącznie w ramach serwera.
Co się okazało – wszystkie problemy z buforem na ST zniknęły. Pozwoliło mi to na tym etapie na sformułowanie tezy, że prawdopodobnie jest to po prostu słabsza kość, która w tym środowisku (fabryczne Essence ST i STX) się wzbudza i problem ustał nie sam z siebie, a w momencie, gdy kość umieściłem na karcie zmodowanej z innymi kondensatorami i elektroniką towarzyszącą. Inne wartości, bardziej dopieszczona elektronika, to i problem już nie występuje. Na tą chwilę zakładałem, że dwie z trzech kości mam sprawne i zamierzałem używać ich dalej, obserwując w miarę możliwości zachowanie się podejrzanego układu.
Efektem obserwacji było jednak stwierdzenie ze zdumieniem, że dwie pozostałe kości na STX zachowują się nienagannie, ale na ST także zaczęły się wzbudzać, choć wcześniej problemu takowego nie było i wzbudzał się tylko sam bufor. Najprawdopodobniej więc nie jest to w sensie stricte wina jednej kości, a koniunkcja tych układów lub suma innych czynników związanych z parowaniem układów względem siebie. Na szczęście jednym z założeń serwera było, że „w razie W” można wadliwy układ wymienić na inny, toteż długo na tak zachowujących się wzmacniaczach nie zabawiłem.
Moje podejrzenie więc, to cicha zmiana parametrów pracy tych układów przez producenta, tzw. „silent revision” lub partię o dużym rozrzucie parametrów. Swoją drogą nie jest to pierwszy raz, gdy pojawia się problem na przestrzeni ostatniego czasu z produktami tej marki. Nawiązałem też kilka akapitów wyżej do tematu bezpieczeństwa słuchawek nie bez powodu. A powodem z kolei całej sytuacji w przypadku SS V5i było moje zaufanie do marki, które zostało nadwyrężone. Producent nigdzie nie opisywał, że kości zostały wypuszczone w nowej wersji i jedyną różnicą między starszą rewizją a nową był brak rantu na metalowych kapturkach. Opis produktu nigdzie nie wskazywał też na zmianę jakąkolwiek w zakresie nazewnictwa. Przypomina się więc historia z rewizjami Conductora V2+, gdzie na wczesnych materiałach producent podawał, iż w środku zostały użyte wzmacniacze (lub części wzmacniaczy) V5, zaś w późniejszych, że V6. Do tego część sklepu opisywała samo urządzenie w wersji „NEW”. W rozmowie z producentem zostałem zapewniony, że nie ma żadnych innych rewizji. Z SS V5i jest trochę podobnie. Niby zmieniono „tylko” kapturki, a jednak sposób działania na tych samych kartach jest inny. Starszą rewizję posiadałem w tercecie zainstalowaną na STX i SC808 bez żadnych problemów. Brzmieniowo nie jestem w stanie z pamięci określić zmian między starszą rewizją a nowszą, ale choć wydają się brzmieć podobnie, nie widzę sensu aby jeszcze raz marnować czas na rozmowę z producentem. Z góry mogę założyć, że dowiem się o braku zmian. Wszystko jest w porządku, to tak ma być, to na 99% wina użytkownika, wszyscy wszędzie są zadowoleni itd.
Dla pewności sprawdziłem jeszcze na odpowiednich przejściówkach swoje HD800 na wyjściach RCA w ustawieniu z OPA2111 i jednym V5i – brak problemów. Teoretycznie mógłbym jeszcze sprawdzić zachowanie się kości z innym buforem, mógłbym też zdecydować się na zachowanie tylko kości buforującej, ale jest to dosyć ryzykowne z perspektywy długoletniego użytkowania systemu i być może lepiej jest po prostu zastosować albo w pełni dyskretne układy jeszcze wyższej klasy, albo kości konwencjonalne, które bardziej leżą w ramach założeń, jakie maszynie na początku postawiłem. Finalnie miałem kilka wyjść: albo szukać starszej serii z rantem, albo używać wyłącznie dobrych konfiguracji unikających parowania w tercet lub stosowania w określonych miejscach na karcie, albo pospieszną sprzedaż kości, aby (zakładając ich sprawność, a po prostu utratę dopasowania do ST/STX przez współczesne rewizje) nie uszkodzić ich w trakcie korzystania na siłę. Wybrałem trzecią opcję. Choć V5i-D mają bardzo dobre właściwości i sporo atutów, w dobie co rusz czytanych rewelacji o problemach technicznych obecnie produkowanych Bursonów (padające kanały, szumy, strzelanie przy wyłączaniu itd.) może to i lepiej więc, że się nie dogadamy w ramach kompletu. Proponowano mi także przejście na najdroższe kości tego producenta o numeracji V6, ale w kontekście takich problemów jakie notowałem brzmiało to trochę niesmacznie. Oczywiście grzecznie odmówiłem. Tym samym kończy to moją przygodę z marką Burson definitywnie. Jeśli producent zmienił parametry kości, powinien jasno i czytelnie to oznaczyć, tak jak robi to każdy normalny producent takich układów. Jeśli zmian nie było i jest to rozrzut jakościowy w ramach partii, tym bardziej podkreśla to słuszność decyzji.
Niemniej ujawnia się tu po raz kolejny ogromna zaleta płynąca z samej możliwości wymiany kości. W przeciwieństwie do innych maszyn, nawet za wielokrotnie więcej, mam taką możliwość. I ten fakt pozwala na rozwiązanie powyższego problemu. Z żadną inną kością, a mam ich obecnie znacznie więcej niż opisałem w artykule, nie było absolutnie żadnych problemów. Żadnych. A i grać też nie grały na tle SS V5i specjalnie gorzej. W niektórych przypadkach wręcz zgoła odwrotnie. Przykładowo OPA2111KP mają lepszą konsystencję i koherentność, zwłaszcza na środku, choć robią to kosztem niechęci do takiego „ostatecznego uwolnienia” źródeł pozornych z oków przynależności do centrum sceny, niczym centrum wszechświata. Pozwalają im na swobodny lot, ale w granicach układu. Jeszcze bardziej zwarte w tym względzie są AD825 i jest to też ciekawa kombinacja. Bo choć ma miejsce penalizacja holografii, w praktyce złapałem się wielokrotnie na tym, że HD800 na Burr Brownach mnie tak nie męczyły. Także o ile gra to bardziej „konwencjonalnie” scenicznie, o tyle zachowuje względem HD800 wyższą korekcyjność (a także względem KEFów) i powoduje, że po prostu chce się tego słuchać.
Swoją drogą, sytuacja ta zmusiła mnie do zastosowania przejściówki z RCA i użycia jednego SS V5i jako buforu testowo, ale warto nadmienić, że z bardzo ciekawym i pozytywnym efektem dla dźwięku HD800.
Podsumowując: holograficzne granie idące wyraźnie w kierunek Pathosów i ich własnego Conductora II-generacji, ale większy poziom szumu tła i ostentacyjne wzbudzanie się w różnych kombinacjach na obu kartach wprost przekreśla ich zastosowanie w jakiejkolwiek dłuższej perspektywie. Osobom, które upierać się będą na ich zakupie, do ST/STX rekomenduję szukanie starszych rewizji. Dla innych urządzeń prawdopodobnie nie ma żadnego ryzyka, jeśli tylko nie jest to środowisko elektroniczne identyczne z ST/STX i ich parametrami.
2x OPA2111KP + MUSES8820
To jednak nie to. O ile na MUSESie było na szerokość bardzo dobrze, o tyle przekaz robił się sztuczny, plastikowy na styku średnicy z sopranem. Moim zdaniem lepiej te układy sprawdzają się w sekcji I/V niż jako moduły buforujące. Oczywiście taka kombinacja w przypadku serwera w grę wchodzić nie mogła, ponieważ układy te bardzo mocno idą w stronę brzmienia Aune S6, a więc szeroko i neutralnie. Zbyt neutralnie. Do testów słuchawek i w wymiarze uniwersalnym jak najbardziej ok, ale do słuchania dla przyjemności mijają się z moimi priorytetami w tej konkretnej aplikacji dosyć mocno.
Podsumowując: z MUSESem granie zbyt neutralne, żeby nie powiedzieć sztuczne i plastikowe. Znacznie lepiej sprawdzają się w roli tercetu albo tylko na sekcji I/V, ale tylko wówczas, gdy karta jest niemodowana i zależy nam na efekcie w stylu Aune S6.
2x OPA2111KP + OP275
To również nie to. Może ujmę to tak: jest zauważalnie lepiej, niż kiedyś gdy testowałem OPA2604, ale jednocześnie gorzej, niż na AD825. Kość gra w bardzo analogowy, jednostajny sposób, który daje ciepłe strojenie z miłym dla ucha basem, koherentną średnicą oraz nieinwazyjną górą. Całość jest rysowana na małej scenie, w nieco zmiękczonej formule. Miałem jednak wrażenie, że – przynajmniej gdy kość pracuje jako bufor – robi się tu aż nazbyt analogowo, kosztem szybkości i czystości.
AD825 ma tą przewagę, że gra czyściej, klarowniej, ale wciąż zachowując swój przyjemny, muzykalno-średnicowy charakter. Dlatego też kość bardzo szybko przestała gościć w serwerze i nie wróciła już potem ani razu w cyklach odsłuchowych. Podkreślić jednak muszę, że nie oznacza to jednoznacznego przekreślenia tej kostki jako takiej. Po prostu w tej aplikacji wydaje mi się, że są od niej lepsze kości.
Podsumowując: lepsza jakość i podobny kierunek od OPA2604, ale sumarycznie sprawdza się na słuch gorzej na buforze niż czystszy i bardziej dynamiczny AD825.
2x OPA2111KP + AD825
W przypadku Analog Devices miałem wrażenie, że kość ta (a raczej pakiet kości, bo to piętrus 2x single) koryguje znacząco brzmienie Burr Brownów i jeszcze dalej posuwa temat wygładzenia dźwięku z utrzymaniem się należytej barwy i skupienia na środku, choć oczywiście nie daje w zamian aż takiej sceny i holografii jak Bursony. Zaprezentowała się natomiast jako słyszalnie lepsze rozwinięcie jakościowe OP275, serwującej również trochę zaokrąglone, ale bliskie i mocno średnicowe granie. Dlatego bardzo dobrą decyzją było, aby zachować kość AD825 jako przynajmniej układ ratunkowy względem opisywanych problemów z Bursonami. Nie tylko na wypadek wprowadzenia poważniejszych zmian w systemie oraz potencjalnej zmiany kolumn na inny projekt, jako że planowane dalsze modyfikacje swoich Q80 na razie odwiesiłem na kołku, ale też w temacie czystości dźwięku. Podłączone dokładnie w ten sam sposób HD800 jak wyżej testowo przez przelotkę, nie wykazywały żadnych problemów, a do tego miałem wrażenie, że poziom szumu jest przynajmniej porównywalny.
Układ prezentuje się też bardzo korekcyjnie względem KEFów, których plastyczna średnica po modyfikacjach zwrotnicy ustąpiła trochę basowi i detalowi na sopranie. Nie jest to też tak mocno średnicowe już granie jak wtedy, gdy kość pracowała jako bufor na niezmodyfikowanej Essence ST. To ważne, bowiem pierwsze wrażenia miałem z AD825 mieszane i wydawało mi się, że ze średnicą zostało trochę przedobrzone. Po modyfikacjach karta nabrała jednak jak pisałem transparentności i porzuciła efekt „buły” na średnicy, dając wszelakie możliwości takim właśnie układom aby zabłyszczeć pełnią potencjału. Dlatego im dalej w las, tym coraz bardziej byłem z tej kombinacji zadowolony. Zaś mojego obszernego opisu dla OPA2111KP jej egzystencja w żaden sposób nie zmienia, gdyż na słuchawkach i tak sygnał jest transportowany przez TPA6120A2.
W tym względzie jeszcze jedna ciekawostka. Kość zagrała mocniejszym natężeniem dźwięku niż SS V5i. W przypadku HD800 na wyjściu słuchawkowym operowałem na głośności najczęściej 35/100 w trakcie testów. Przy SS V5i po wyjściach RCA schodziłem na 30/100. Ale przy AD825 już na 25/100. Te kości lubią z tego co czytałem mocne środowisko napięciowe, więc tym bardziej predysponowane do pracy w takim urządzeniu jak moje.
Podsumowując: dobra kość od Analog Devices grająca jednocześnie w miarę czysto i bardzo muzykalnie. Połączenie z Burr Brownami mniej ciśnie się na wywody sceniczne, za to mocniej na koherencję i bardzo przyjemną barwę. Świetne rezultaty pod HD800, bardzo dobre też pod KEFami. Wyraźnie lepsze efekty niż bardziej matowy OP275. No i ten bas… głęboki, mocny, długo ważony. Dźwięk ogólnie w takim starym, trochę plastycznym stylu, ale klarowny, dobrze zdefiniowany jakościowo i aż chcący się słuchać.
3x AD825
Spotęgowane właściwości pojedynczego AD825, czyli mocny nacisk na średnicę i efekt korekcyjny w HD800 mocniej jeszcze zaznaczony. Choć odbywa się to nieco kosztem sceny względem OPA2111KP, brzmienie jest jednoznacznie nastawione na ocieplenie i korekcyjność względem HD800. Słucha się tego przyjemnie i długo, ale de gustibus czy jest lepsze od połączenia na dwóch 2111KP… trudno powiedzieć. Na pewno jest ze smakiem i nasyceniem w dźwięku, zwłaszcza na środku.
Dlatego najlepiej sprawdzi się u osób chcących z HD800 zrobić mocniejsze słuchawki wokalne. W sopranie zaś jeśli nad czystością ma dominować przyjemny charakter analogowy, definitywnie warto rozważyć takie połączenie. W trybie RCA dodatkowo słuchawki dostają podkreślenia basu, także jeśli mowa o efekcie korekcyjnym ze sprzętem mającym dylematy wokalne, faktycznie warto się nimi zainteresować. Przechylają mam wrażenie tonalność jeszcze mocniej w stronę Coplanda i gdyby nie scena, która jest tam ogromna, sztuka ta bardzo by się im udała.
Podsumowując: bardzo ciekawe kości z analogowym sznytem, będące najbardziej jak do tej pory korekcyjnym układem względem HD800. Duży nacisk na bas, największy na średnicę (wokal), mniejszy na sopran i scenę. Generalnie najbliżsi wokaliści ze wszystkich kości jakie na razie testowałem.
2x OPA627 + AD825
Połączenie bardzo czyste i dynamiczne, a do tego łączące w sobie tonalność OPA2111KP z charakternością AD825, eksponując zalety wszystkich wymienionych, ale unikając w dużej mierze ich wad. Mam wrażenie, że góra jest tu czystsza od AD825, ale wokal ustawiony jest dalej, oddając więcej pola naturalnym scenicznym możliwościom słuchawek, ale bez penalizacji w postaci jaśniejszego sopranu. Praktycznie cały mój opis dot. OPA2111KP można byłoby skopiować i wkleić tutaj, ale podkreślić, że jest to po prostu czystsze wydanie tychże kości. Świetne rezultaty można tu też osiągnąć dając wspomnianego SS V5i na bufor, po RCA, ale nie sprawdzałem już tego połączenia, ponieważ w trakcie testów pozbyłem się większości kości tego producenta, aby nie ryzykować ich uszkodzenia w sytuacji losowego wzbudzania się. Tudzież uszkodzenia mojego sprzętu przez nie. Natomiast z AD825 dźwięk dostaje tego analogowego sznytu na sopranie, większego nasycenia na wokalu oraz dodatkowego, kapitalnie sprawdzającego się doładowania na basie.
O ile to połączenie jest jednym z wielu, a AD825 po prostu był na miejscu buforującym po poprzedniej kombinacji, bardzo dużo słuchałem tego połączenia poprzez wyjście słuchawkowe via TPA6120, a więc tak samo jak OPA2111KP. Mogę potwierdzić, że to naprawdę fantastyczne kości, jeśli tylko dostanie się je w oryginale. Genialna na HD800 barwa, ale też obłędna dynamika i czystość, których na SS V5i bym się prędzej spodziewał albo i pełnych V5, a także niezwykle kompetentne, trzeźwe zachowanie sceniczne, które mimo muzykalnej nuty kompletnie nie gubi się i nie utwardza, nie zasklepia w obawie przed utratą pogłosów i źródeł pozornych. Może to kwestia synergii z kością Texas Instruments, która czy mi się to podoba czy nie być na karcie musi, ale to konkretne połączenie od strony słuchawkowej trafia idealnie w punkt. Im dłużej go słuchałem, im więcej albumów przekopywałem, miałem wrażenie, że układy te dojrzewają wraz z ze słuchawkami niczym jedna całość. Słuchając np. Louisiana Mouring Benna Jordana, byłem pod wielkim wrażeniem szybkości i czystości tych kości na HD800. Nic mi kompletnie nie przeszkadzało, a do tego scena była bardzo dobrze uchwycona. Słuchawki owszem, stać na jeszcze więcej, ale na 627 byłem na poziomie przynajmniej solidnej trójwymiarowości własnej.
Te kości zostają się ze mną na bank, natomiast OPA2111KP jako ich w prostej linii zamiennik i alternatywa „na wszelki wypadek”. Pod słuchawki są fantastycznym rozwinięciem 2111-tek, ciesząc uszy zwiększoną czystością i dynamiką, a także zachowywaniem się bardzo nienagannie co do ogólnej klasowości dźwięku, praktycznie zrównując się z SS V5i w całokształcie. Mam wręcz wrażenie, że Bursony grają od nich mniej czystym dźwiękiem, ale nadrabiają to większą wciąż holografią. Jednakże ponieważ ponad wszystkim dążę na tym sprzęcie do czystości, OPA627 pozostają się w nim jako od tej pory podstawowe i jednocześnie najlepsze kości dedykowane pod HD800.
Podsumowując: OPA627 są w prostej linii rozwinięciem OPA2111KP na moje uszy, dając lepszą dynamikę, czystość i świetną klimatyczność. Na tym etapie testów są najlepszymi układami na sekcji I/V i najbardziej kompleksowymi oraz dopracowanymi jakościowo jakie dane mi było tu gościć. No i najważniejsze, że nic a nic się tu nie wzbudza, nie syczy i nie budzi wątpliwości jako takich co do żywotności.
3x OPA2227P
Połączenie tych kości daje równy i dynamiczny dźwięk z precyzyjnym basem na dole oraz precyzyjną górą. Miałem wrażenie wymieszania się w nich charakteru MUSES8820 oraz LME49720, czyli teoretycznie bardzo dobrych kości, choć bez sztuczności tych pierwszych. Nie wiem czemu, ale choć pracowałem na nich wiele lat i w STX sprawdzały się bardzo dobrze, tak tutaj, przy testach na buforze, zawiodły dźwiękowo. Tudzież po prostu nie pasowały na to miejsce i nie były w stanie zaprezentować się tak dobrze, jak na sekcji I/V. OPA2227P definitywnie nie są tak klimatyczne jak OPA627 i mają mam wrażenie od nich mniejszą dynamikę, ale to wciąż kości ze studyjnym tym razem sznytem. Przekłada się to też na scenę bardziej na szerokość niż głębokość, ale i większą responsywność. Dlatego o ile niespecjalnie widzą mi się tutaj pod HD800 i prędzej pasowałyby do jakichś cieplejszych słuchawek oraz systemów kolumnowych, o tyle świetnie sprawdzać będą się myślę jako substytut wysłużonych już MUSESów 8820 na drugiej karcie testowej.
Pod koniec odsłuchów miałem wrażenie, tak aby tylko odnotować, że charakter o który pisałem wyżej, niekoniecznie musi ograniczać się tylko do tych dwóch kości i jakby sięgnąć pamięcią głębiej, przypominają mi one taką tańszą odmianę… Sonic Imagery Labs 994Enh. Czemu nie Sparcos SS3602? Przez większą od nich energię oraz wydaje mi się wciąż lepszą penetrację sceny w głąb.
Podsumowując: Mieszanka zadziorności i liniowości, przypominająca bardzo ciekawe kości studyjne i popularne układy o precyzyjnym, rozbudowanym na szerokość charakterze. Scena optymalna, nie za duża, nie za mała, bardziej ekspansywna na szerokość, ogólnie też przyzwoity dźwięk jako taki o dużej klarowności i dokładności. Idealni kandydaci na kości referencyjne.
2x OPA627 + OPA2227P
Jeśli mówić o dążeniu do perfekcyjnego połączenia dwóch pozornych przeciwieństw w jedną uzupełniającą się idealnie całość, prawdopodobnie jest to jedno z takich właśnie połączeń. Nawiązując tu mocno do przywoływanej już przeze mnie wcześniej filozofii yin-yang, mamy tu muzykalną i bardzo dynamiczną kość mającą należytą korekcję barwy i wysoką klasowość, połączoną z szybkim i klarownym buforem o zacięciu studyjno-technicznym. Daje to w rezultacie wręcz genialne połączenie w zakresie zarówno jakości dźwięku, jak i jego kompleksowości, eufoniczności, angażu. W tym połączeniu pakiet gra lepiej nawet po RCA niż po wyjściu słuchawkowym, jeśli mówić stricte o komplementarności – jeden aspekt uzupełnia drugi, bas dostaje zastrzyku techniczności i lepiej opracowanego pod kątem precyzji najniższego podzakresu. Średnica zachowuje ten swój Burr-Brownowy sznyt oraz jakimś cudem wciąż należytą głębię sceny. Sopran także nie chce się wyrywać do przodu, jakby pozostając zawieszony na potężnej gumie między dwoma biegunami, wzajemnie się przyciągającymi i odpychającymi.
Jeśli więc tylko system kolumnowy nie wymaga jakichś bezpośrednich korekcji na jakiś zakres, nie miałbym absolutnie żadnego problemu, aby uczynić taką kombinację domyślną i wyjściową. Od niej można bowiem zacząć modulować sobie dźwięk albo na jeszcze większą jasność po RCA, albo ciepłotę i wokal (np. powrót do AD825). Jest to ten niesamowicie komfortowy punkt, z którego możemy wykonać dowolny ruch dowolnym pionkiem na dowolne miejsce na planszy. Ale tylko po RCA. W przypadku samych kości OPA627, opisałem je dokładnie wyżej przy okazji połączenia z AD825, bowiem to w takim były testowane pierwszy raz. Także jest to też ten moment, w którym sekcja I/V jest już jakby obsadzona docelowo właściwymi kośćmi i zmieniać się może dowolnie jedynie bufor.
Podsumowując: Wysoce komplementarne połączenie pod ogromną ilością względów. Niezmiennie przyjemne granie pod HD800 na wyjściu słuchawkowym. Bardzo kompetentne i kompleksowe granie po RCA na kolumnach, mające wszystkie ważne aspekty i cechy już od razu na talerzu, przygotowane do zaserwowania klientowi. Jeśli tylko kolumny nie wymagają zmiany połączenia i grania na konkretną modłę, połączenie idealne i optymalne.
3x OP275
Połączenie to podoba mi się bardziej niż gdy pojedynczy OP275 pracował na buforze, choć z perspektywy HD800 kości OP275 najlepiej zagrały mi w trybie słuchawkowym. W trybie RCA kości te grają przyjemnie i podobnie do AD825, ale z nieco mocniej zaznaczoną ziarnistością i analogowością na górze, jak również mam wrażenie mniejszą dynamiką całościową. Wydaje mi się, że jednak dla lepszego efektu korekcyjnego wolałbym 3x AD825, a już na pewno gdyby kości miały pracować tylko buforowo. Mimo bowiem, że oba rodzaje kości prezentują „centrowy” sposób grania wydający się bardzo poprawnym i konwencjonalnym, w AD825 jest coś więcej, coś bardziej urzekającego i angażującego. Na OP275 jest spokojniej, bardziej zwyczajnie, ale też być może jest to spowodowane gorszymi właściwościami technicznymi. Finalnie kości te nigdy nie zagrzały na karcie dłuższej chwili, a przejście zaraz po nich na AD825 od razu nadawało dźwiękowi smaku i powabu.
Podsumowując: Ciekawe i przyjemne kości, ale ponownie, o ile lepsze od moich dawnych OPA2604, o tyle nie na tyle, aby przebić bardzo fajne AD825.
2x AD825 + OPA2227P
Bez zmian względem wcześniej testowanego tercetu AD825, gdzie kości zaprezentowały się bardzo dobrze od muzykalno-średnicowej strony, dając bliski wokal i niższy sopran. Na RCA jednakże świetnie się wyważają z bardziej studyjnym OPA2227P i efekty są tu przynajmniej tak samo dobre, jak przy OPA627. Choć na początku żałowałem, że pokusiłem się o AD825 mając OPA627, tak w takich połączeniach widzę ich ogromny potencjał i słucha mi się ich z nie mniejszą wcale przyjemnością co 627-ek. Sekretem jest połączenie w bardzo kompetentny sposób pewnych przeciwieństw tych kości, a bardziej może wprost uzupełnienie się wzajemnie. Techniczny i dokładny bas buforu dostający nasycenie i średniobasowość kości kanałowych. Neutralna i przestronna średnica otrzymująca porcję bliskości i nasycenia. Wreszcie dokładna góra mająca swój przyjemny, pełny barwowo aspekt naturalności. Scena, o ile jest w trybie słuchawkowym bez zmian, o tyle po RCA bardzo dobrze się prezentuje i wyważa między rozmiarami bezwzględnymi, a utrzymywaniem właściwej formy i składu.
Podsumowując: Wysoce komplementarne połączenie pod ogromną ilością względów. Niezmiennie przyjemne granie pod HD800 na wyjściu słuchawkowym. Bardzo kompetentne i kompleksowe granie po RCA na kolumnach, mające wszystkie ważne aspekty i cechy już od razu na talerzu, przygotowane do zaserwowania klientowi. Jeśli tylko kolumny nie wymagają zmiany połączenia i grania na konkretną modłę, kombinacja idealna i optymalna pod wiele scenariuszy.
Finalny kosztorys
Podliczając całościowy koszt postawienia takiego serwera, trzeba wycenę rozbić całkowicie od zera. Ponieważ jednak mój projekt polegał na złożeniu go z części już posiadanych, często kupowanych samodzielnie lata temu przy ekstremalnej dewaluacji i niemożności akuratnego określenia ceny współczesnej, skupię się po prostu na elementach faktycznie zakupionych.
- Samsung SSD 860 EVO 1TB – 500 zł
- Asus Xonar Essence ST wraz z OPA2111 / AD825 – 330 zł (używany)
- Debroglie D8 Pico ATX – 135 zł (od osoby prywatnej)
- Wtyk do zasilacza impulsowego WattGate 360i – 115 zł
- Wzmacniacze operacyjne – 284 zł
- Obudowa, zasilacz impulsowy oraz modyfikacje karty – 1390 zł
- Riser kątowy PCI – 20 zł z wysyłką
- Radiator AAB Cooling – 28 zł z wysyłką
- Przedłużacz zasilania P4 – 33 zł z wysyłką
- Przedłużacz SATA MOLEX – 13 zł z wysyłką
- Uchwyty montażowe do kabli – 18 zł wysyłką
- Radiatory MOSFET – 34 zł z wysyłką
- Radiatory Zalman – 40 zł
- Radiatory niskoprofilowe czarne – 60 zł
- Radiator od 7300GS – 19 zł wysyłką
- Gniazda XLR wraz z ich sprowadzeniem z USA oraz okablowanie i drobne akcesoria typu radiatorki, izolacje, ekrany, kostki i piny itp. – ok. 350 zł
Suma więc wykorzystanych i zakupionych części to ok. 2735 zł brutto.
Z moich obliczeń wynika, że dotychczas posiadany „złom” komputerowy miał wartość ok. 630 zł, a co też nie jest wcale taką małą kwotą. Czyli zaokrąglając koszt projektu, gdyby stawiać go od zera, byłoby to przynajmniej 3365 zł licząc z wysyłkami.
Pierwotnie liczyłem na wydanie większej kwoty, mniej więcej 4-5 tysięcy, a nawet 6 jeśli liczyć jakieś zaawansowane wzmacniacze operacyjne i modyfikacje karty dźwiękowej, także koszt uplasował się na bardzo niskim poziomie, wręcz śmiesznym, jeśli brać pod uwagę wyliczenia z początku artykułu, które wskazywały ekwiwalent w sprzęcie aktualnie produkowanym na poziomie ok. 10 000 zł. Tu udało się zrobić to samo lub nawet lepiej za ok. ¼ tej kwoty. Nie liczę tu jednak kompletnie przewodów, oplotów, past i drobnych akcesoriów, które też zostały wykorzystane. Nie powinno to jednak drastycznie zwiększyć podanej kwoty. Tą diametralnie zwiększyłaby dopiero jedna rzecz: robocizna.
W takich projektach poświęca się na nie przerażającą ilość czasu. Gdyby ten projekt był łatwy i przyjemny, nie powstawałby w tak wielu wersjach i nie trwałby ponad pół roku. Nie jest to kwestia umiejętności, a cierpliwego testowania i łączenia ze sobą elementów, których nikt nigdy nie projektował w takich zastosowaniach do jakich postanowiłem to wszystko zaprząc. Gdyby więc liczyć roboczogodziny, projekt ten kosztował realnie kilkanaście tysięcy złotych. O ile w częściach nie zapłaciłem zbyt dużo i całość wydaje się wysoce atrakcyjna, w wymiarze czasowym była to naprawdę spora inwestycja. I jest to tylko i wyłącznie pomijalne dlatego, że odbiorcą końcowym urządzenia jestem ja sam.
Naturalnie można byłoby maszynę wykończyć drożej także i na samych materiałach oraz komponentach. Wręcz znacznie drożej. I nie mówię tu o podzespołach bazowych, bo to oczywista oczywistość, ale np. o zasilaczu impulsowym, który mógłby zostać z czasem wymieniony na liniowy. Byłoby to dodatkowe + 1200 zł.
Dalej, modyfikacje karty są tylko podstawowe i estymowane jako najbardziej wpływowe na finalny dźwięk. Definitywnie dałoby się tu pogrzebać więcej, ale to oznacza z kolei czas, koszt i ryzyko pożegnania się z kartą na jakimś etapie, jeśli coś pójdzie nie tak. Co więcej, nie ma żadnej pewności, że modyfikacje pozwolą faktycznie wzbić się karcie jeszcze wyżej niż na obecnym poziomie, toteż o ile tak z 1200 zł należałoby wysupłać, o tyle ryzyko przestrzelenia z zasadnością jest już większe.
Rzeczy kupione w tym wszystkim niepotrzebnie lub nadmiarowo (w tym zapasowo) kosztowały mnie jedynie 165 zł + 460 zł na tercet SS V5i, który finalnie wylądowałby w obu kartach, gdyby nie problemy z nadwrażliwością i wzbudzaniem się. Powiedzmy jednak, że o ile sprzedałem je ze stratą, nie żałuję ich zakupu. Zastosowanie ich miałem z tyłu głowy od połowy zeszłego roku, także całość traktuję jako cenę za wiedzę jak wygląda obecnie sytuacja z produktami tego producenta i potwierdzenie, że mogę ich zasadnie i dla własnego bezpieczeństwa unikać.
Oczywiście wciąż można byłoby zaryzykować przygodę z lepszymi OPA, ale nie mam tu już na myśli MUSESów i jakichkolwiek Bursonów, bo w pierwszym przypadku zbyt wielkie jest ryzyko trafienia na podróbki oraz ceny niespecjalnie zachęcają, zaś w drugim przypadku opisałem sytuację na tyle dokładnie, że jest jasnym iż trzeci raz do tej samej rzeki wchodzić nie zamierzam. Natomiast coś w stylu Staccato, Muzg Audio, może jakieś nietypowe lub drogie scalaki… opcji jest na pewno trochę. Przy trzech kościach liczyć należałoby z 300-1000 zł. Możliwości na przelicytowanie budżetu jest więc multum. Finalnie zamierzam jednak pozostać przy układach konwencjonalnych. Najprościej, najbezpieczniej i z wciąż kapitalnymi rezultatami.
Potencjalne oszczędności dla konstruktora
Odwiecznym problemem będzie mimo wszystko zabawa w rzeczoznawcę i zgadywanie, czy dana kwota to dużo, czy mało. Teoretycznie wydaje się to całkiem sporo jak na „zabytkowy” komputer z kartą dźwiękową złożony z części chodzących na rynku wtórnym za bezcen, ale proszę zauważyć, że powyższą kwotę konsumują głównie dysk SSD i obudowa robiona na zamówienie, która musi swoje kosztować, a także sumarycznie części do panelu przedniego, importowane z USA. Reszta to po prostu efektu sumy, drobne bibeloty zebrane do kupy, których trzeba użyć w odpowiedniej przecież ilości. Oczywiście można kompletnie pominąć jakieś oploty, organizację kabli, radiatorki, skupić się wyłącznie na zintegrowanych już platformach ITX, obejść temat obudowy itd. Wtedy kwota na pewno byłaby mniejsza, ale decyzja za estetyką winna leżeć zawsze w zależności od użytej obudowy.
Jeśli wyjść od ceny łącznej przy składaniu takiego komputera od zera i zdecydować się na np. obudowę typowo komputerową, próbując się tam jakkolwiek zmieścić, odpadnie nam np. riser, gniazda przednie (choć można mimo wszystko je wykonać, jeśli tylko jest taka opcja i umiemy wycinać odpowiednie otwory w metalu). Sama obudowa też się zredukuje do powiedzmy tych 500 zł, jeśli miałoby to jakoś sensownie się prezentować. Już mamy w tym momencie może nawet i 1000 zł oszczędności, a jeśli znajdziemy jakąś naprawdę tanią obudowę, to koszt zredukujemy jeszcze mocniej. Do tego oszczędności na karcie, jeśli nie trzeba nam sekcji analogowej, na SSD (można bootować się np. z szybkiego pendrive’a USB), na innych drobnych rzeczach, na panelu przednim, na chłodzeniu, to nagle wychodzi nam groszowy projekt względem tego co i tak będzie oferował.
Idąc w drugą stronę, skupienie się wokół wprost z pudełka lepszych dźwiękowo komponentów niż użyty przeze mnie Xonar, pozwoli na osiągnięcie teoretycznie bardzo wysokiej jakości dźwięku, świetnej sceny, na świetnym DACu i z wciąż wymiennymi OPA. Do tego coś na wzór wiekowego Zalmana TNN300 (to on zainspirował mnie lata temu) albo projektu Akasy pod konwersję dla Intela NUC na pełne pasywne chłodzenie i mamy do tego tak jak u mnie pełną ciszę opartą o rozbudowany system ciepłowodów. Wszystko to prawdopodobnie i tak wykreuje się w formie ułamka ceny, jaką musielibyśmy zapłacić za porządnego DACa stacjonarnego i serwer strumieniowy. Choć oczywiście będzie to miało też swoje limitacje.
Podsumowanie
Przygoda ze skonstruowaniem opisywanej maszyny, mozolnym jej konfigurowaniem, testowaniem, mierzeniem, planowaniem, próbą pogodzenia ze sobą wielu przeciwności, czy wreszcie opisywaniem jej o późnych godzinach nocnych akapit po akapicie, ostatecznie zakończyła się wielką moją satysfakcją i dużym zdobytym doświadczeniem oraz toną różnego rodzaju przemyśleń, którymi chciałem w ramach tegoż artykułu się podzielić. Powodów by to uczynić było kilka:
- aby nie było wątpliwości jaki dodatkowo sprzęt będę od tej pory wykorzystywał w testach na blogu i by poprzez referowanie do „ST-3200A” było wiadomym jakie urządzenie mam na myśli,
- by pokazać jak stary sprzęt komputerowy może być zagospodarowany w zupełnie niespodziewany i nowoczesny sposób,
- żeby zwrócić uwagę na tematykę serwerów muzycznych i strumieniowych, która wcale nie jest pozbawiona sensu i że w ramach platformy x86 również da się zbudować podobne urządzenie, nie tylko wokół Raspberry Pi (projekty HiFiBerry itd.),
- bo jestem po prostu i tak po ludzku dumny z sukcesu ukończenia mojego pierwszego projektu DIY z prawdziwego zdarzenia.
Moja ocena subiektywna projektu na pewno jest w jakimś stopniu zafałszowana, ponieważ jestem jego twórcą i to już samo w sobie utrudnia mi chłodną ocenę jako taką, ale gdybym nie wiedział dokładnie co w nim siedzi, stwierdziłbym, że jest to coś kupione bezpośrednio od producenta i jedyne elementy zdradzające, że to projekt DIY, to tak naprawdę tylko sposób montażu wentylatora, który ze względu na drgania silnika, choć wciąż niewielkie, musi być izolowany i nie pozwala na stały montaż.
Biorąc pod uwagę walory dźwiękowej, finalnie sprzęt wyszedł bardzo dobrze i gra znacznie lepiej, niż zarówno PC w trybie cyfrowym, dając Pathosom większą głębię i dynamikę oraz czystość, jak i jakakolwiek ST/STX w stanie fabrycznym. Przypomina mi styl grania Coplanda DAC215 z tą jego przebogatą średnicą, a po modyfikacjach wyrównując się klasowo z Astellem SA700 i czyniąc większy ukłon w stronę bardziej kompleksowego, transparentnego dźwięku. Przede wszystkim jednak – oferując natywny tryb bit-perfect oraz komplet wyjść cyfrowych bez żadnego kombinowania i w ogóle koniecznością uruchamiania osobno komputera. Wszystko to w ramach tonalności konfigurowalnej za pomocą OPA, a także stawiając na modularność, wymienność części w razie „W” i granie nastawione na mocniejsze zarysowanie pewnych aspektów z torem kolumnowym oraz bezpośrednio HD800. Wciąż nie jest to może dokładnie poziom Coplanda czy Pathosa, ale będąc w tej samej klasie co SA700 ma to niewątpliwie swój urok, a także oszczędza mi sporo miejsca w ramach jednej zwartej obudowy, wykorzystując multum starych podzespołów, których albo bym nie wykorzystał, albo zastanawiał się jak je zagospodarować: czy może nie sprzedać lub po prostu wyrzucić.
Prawda jest taka, że odkąd – nawet w formie „pająka” – serwer ten pracował u mnie w torze audio, słuchałem muzyki praktycznie tylko z niego jako źródła i za każdym razem, o różnych porach dnia i nocy, jakość dźwięku zawsze była dla mnie lepsza właśnie poprzez serwer. Było to zweryfikowane przez dwie inne, kompletnie niezależne osoby i mowa tu o różnych interfejsach zarówno cyfrowych, jak i analogowych via inne karty dźwiękowe, także nie jest to pusta gloryfikacja konstruktora.
Dla normalnej osoby nie będzie to może miało większego znaczenia, ale dla mnie, jako wieloletniego użytkownika kart z serii Essence, jeden konkretny aspekt jest tu fundamentalnie ważny. Otóż dzięki przejściu na osobny serwer tego typu, nie mam już absolutnie żadnych problemów ze sterownikami, latencją, kompatybilnością, piskami śmierci czy koniecznością pamiętania czegokolwiek, aby wyłączyć lub przełączyć w odpowiedniej kolejności, by móc następnego dnia uruchomić bez przeszkód komputer i pracować dalej z dokumentami, grafiką, recenzjami itd. Nie muszę też rozważać już zakupowo osobnego konwertera, odtwarzacza sieciowego, serwera strumieniowego, transportu, czy czegokolwiek innego, uzależnionego od PC bądź nie. Nie muszę patrzeć na wsparcie, czy są odpowiednie sterowniki, a jak nawet są to czy mają natywnie tryb ASIO i jak się to potem zachowa pod Windowsem po aktualizacjach, jakby zachowywało się pod Linuxem, a co jeśli producent systemu wymusi aktualizację mającą horrendalne problemy techniczne wymuszające instalowanie poprawek do poprawek itd.
Jednym słowem święty spokój. Wreszcie.
Ponad warstwą użytkową, cały czas miała miejsce elementarna frajda i przeświadczenie o „szczerości” tego sprzętu. Wszystko jest tu takie autentyczne, nieskażone wszechobecnym marketingiem i nawijaniem makaronu na uszy, jak to obecnie dzieje się często na forach audio i w ogóle w naszej branży. Nawet jeśli wciąż staramy się podchodzić do niej hobbystycznie, to jednak taki sprzęt, zbudowany własnymi rękami, jest kwintesencją wspomnianej autentyczności. Samodzielnie przemyślany i zaprojektowany z misternie złożonej układanki najpierw we własnej głowie, potem na kartce, potem w programach i na wizualizacjach. Mozolnie budowany, potem przepoczwarzający się wraz z kolejnymi wymianami komponentów i wzmacniaczy operacyjnych, działając coraz sprawniej, coraz lepiej. To niesamowite połączenie satysfakcji z czystą radością kreacji i doskonałą wiedzą co w środku piszczy, jaka jest jakość każdego komponentu. Świadomość własnoręcznego wpływu na wiele rzeczy urzeczywistnia go jako całość, nawet jeśli nie wszystko poszło zgodnie z planem lub pozostaje jeszcze margines na poprawki i zrobienie czegoś lepiej. To wszystko w normalnych okolicznościach by najpewniej nie istniało, bo gwarancja producenta, bo wysoki poziom integracji, bo kompletny brak modularności, bo brak jakichkolwiek schematów i wiedzy jak co działa, aby ukryć się przed zarówno oczami konkurencji, jak i nie kusić użytkowników do grzebania. Tu zaś moje grzebanie było podstawowym założeniem i jeśli coś zostanie przeszacowane lub niedoszacowane, będzie to tylko i wyłącznie moja wina, a także odpowiedzialność, aby to poprawić i rozwiązać. Jak w każdym rozsądnym projekcie DIY.
Na pewno w wielu momentach była to droga wyboista i zniechęcająca, a kłody były rzucane pod nogi zarówno przez sam projekt, jak i np. przy obudowie, z kilkoma nieprzyjemnymi epizodami. Czy więc w ogóle warto się w takie urządzenia bawić? Jest sens abyś sobie takie coś zbudował? Tu już każdy musi sam sobie odpowiedzieć na to pytanie. Na pewno takie urządzenie winno być odpowiedzią na własne, indywidualne potrzeby. Zawsze można byłoby pójść na łatwiznę i kupić urządzenie gotowe. Zawsze można też zbudować je znacznie taniej i prościej, albo na innej platformie i nie wykorzystując tak starych, używanych, niedostępnych często podzespołów (ITX, HiFiBerry itd.). Jeśli jest się tylko użytkownikiem, myśli się jak użytkownik (czyt. „płacę = żądam”), brakuje pewności siebie, zdolności i możliwości aby zbudować sobie taki serwer, nie mówiąc już o jakichś sekcjach analogowych czy rzeźbieniu w chłodzeniu, panelach przednich, dorabianiu okablowania itd., to odpowiedź nasuwa się raczej jednoznaczna i kupienie gotowego rozwiązania, choć bardzo kosztowne, problem może szybko rozwiązać.
Jeśli jednak podejmie się wyzwanie i starczy determinacji na tyle, aby projekt ukończyć, satysfakcja będzie tu płynąć strumieniami. Oto bowiem stworzyłem coś z niczego, samodzielnie, nie wydając przy tym fortuny, nawet jeśli pominie się spory koszt wyrażony w roboczogodzinach. Do tego zagospodarowałem komponenty stare i nieużywane, ograniczając ich pobór prądu i tym samym podwójnie dbając o środowisko, bo nie mnożąc e-odpadów. Rozwiązałem też wiele problemów, z jakimi borykałem się korzystając z PC jako głównego centrum odtwarzania muzyki, bez konieczności przechodzenia na inne media i metody. Dla mnie osobiście było to więc absolutnie warte poświęconego czasu, którego jak liczę upłynęło tu bez mała ponad 6 miesięcy. Gdyby nie ten projekt, większość wymienionych tu podzespołów byłaby już dawno na serwisach aukcyjnych lub w utylizacji. A tak mają tu swoje nawet nie drugie, a trzecie już życie i to w wymiarze kompletnie zaskakującym. Nie tylko mnie samego, ale wszystkich, którym pokazywałem to urządzenie na różnych etapach egzystencji i od strony finalnego kosztorysu. Jeśli miałbym wydawać 10 000 zł i więcej na podobny sprzęt, albo za ćwierć tej kwoty potraktować to jako wyzwanie i świetną przygodę, to nawet biorąc pod uwagę co rusz napotykane problemy i konieczność główkowania nad każdym drobnym elementem, warto było mimo wszystko się podjąć.
WOW, fajny sprzęcik, ale zadam takie pytanie. Jeśli miałby Pan nieograniczony budżet na sewer muzyczny, ale powiedzmy, że bez wzmacniacza słuchawkowego, DAC-a, po prostu sam serwer muzyczny, czyli chciałby Pan mieć możliwie wszystkie opcje na wyciągnięcie ręki, takie jak Tidal, Spotify, Deezer, Qubuz, Roon, granie z dysków twardych, nie wiem nawet, co jeszcze można, i tak dalej, i tak dalej, to w co by Pan szedł?
Zapewne również w jakąś swoją własną konstrukcję, ale na lepszej obudowie i nowocześniejszej, dobrze wyposażonej płycie. Z tym że posiadanie zintegrowanego DACa/wzmacniacza było i jest moim wymogiem, a nie serwisy strumieniowe, więc i tak zapewne stanęłoby na czymś w podobnym kształcie, co zaprezentowane urządzenie, ale ze wszech miar na wszystkim lepszym. Wśród rozwiązań komercyjnych nie widziałem niestety żadnego, które przykułoby moją uwagę w ramach spełnienia własnych potrzeb, a nieograniczoność budżetu nie oznaczałaby u mnie wydania go w całości. Nie chodzi o to bowiem, aby wydać dużo, ale by wydać mądrze. 🙂
W streamer PinkFaun!
Tak jak mówiłem: mądrze. 🙂
Ostanie zdanie – jasne, pełna zgoda. Co do DAC-a, plus ewentualnie wzmacniacza słuchawkowego, to nie lepiej mieć je „zewnętrznie”, w osobnych pudełkach? No bo tak, to chyba jesteśmy skazani na wbudowane? Chyba, że można je podpiąć pod takie urządzenie, to wtedy spoko, nie ma problemu.
Wydaje mi się, że zalety wbudowanej sekcji DAC/AMP w urządzenie opisałem w artykule, tak samo jak topologię w której mój własny DAC pracuje i jest połączony cyfrowo z DACiem serwera via np. COAX.
Zalety wbudowanego układu to przede wszystkim duża oszczędność miejsca, bo nie trzeba rezerwować go na kilka modułów stojących jeden obok drugiego lub na sobie. Oczywiście jeśli w ogóle jest taka możliwość, bo integrowanie serwera strumieniowego z dużym ciężkim wzmacniaczem np. stereo, to proszenie się o kłopoty, ogromną obudowę i wzajemną interferencję. Do tego dochodzi oszczędność prądu (zasila Pan jedno urządzenie zamiast trzech osobnych), lepsza ergonomia (wszystkim steruje się jak jednym urządzeniem), oszczędności na okablowaniu i eliminacja ich wpływu na sygnał.
Oczywiście osobne segmenty też mają swoje zalety, bo nie są limitowane przez jedną wielką obudowę, nie wpływają na siebie termalnie czy w zakresie zakłóceń EMI, a segmentowość pozwala na wymianę dowolnego elementu i zamianę go na inny. W moim urządzeniu jest to i tak podniesione do potęgi, bo mogę wymienić moduł karty dźwiękowej na inny układ, lekko przerobić obudowę, albo wprowadzić dalsze modyfikacje kośćmi OPA. W typowym urządzeniu audio z reguły nie ma Pan żadnej opcji na nic, bo wszystko jest lutowane na stałe i na sztywno.
Owszem, może Pan podłączyć osobny wzmacniacz lub DAC pod takie urządzenie za pomocą interfejsu S/PDIF, nie tylko USB. Pod ST-3200A mogę podłączyć dowolny DAC albo za pomocą USB, albo optykiem, albo koncentrykiem. Jeśli DAC może przyjąć sygnał analogowy, to także via RCA. A mogę używać też tego wbudowanego. Wykorzystując DACa w trybie analogowym, mam automatyczny multi-streaming na wyjścia cyfrowe. Ten aspekt również opisałem w artykule. 🙂
Dlatego też wybrałbym własny sprzęt. W tym wypadku budżet także miałem nieograniczony, ale jak pisałem chciałem spożytkować go mądrze i założeniem projektu było użycie sprzętu sprawnego, ale posiadanego przeze mnie i nieużywanego od lat. Stare WiFi które nie zjada nawet 1 W prądu, jakaś antena się znalazła, a to stary radiator od karty graficznej, a to kilka procesorów zagrzebanych w pudłach po likwidacji komputerów biurowych w firmie itd. Tak niski koszt nie wynikał więc z braku środków, a niechęci do ich wydatkowania i mnożenia sprzętów dających paradoksalnie mniejsze możliwości za 10-20x więcej.
Przepraszam, nieco egzotyczną wydaje mi się idea budowania własnego streamera DIY, w dodatku w oparciu o jakieś dziwne oszczędności materiałowe, w nowoczesnych czasach i przy możliwościach kupna naprawdę wielu ciekawych maszyn tego typu w bardzo zbliżonych pieniądzach. Przypomina mi się taki dowcip/pytanie: „Co to jest majsterkowanie? – to hobby polegające na wykonywaniu różnych prac domowych, które fachowiec zrobił by lepiej, szybciej i taniej”. Pozdrawiam.
Urządzenie zrobiłem sobie nader szybko, dobrze i tanio, a także z bardzo nowoczesną specyfikacją spełniającą moje oczekiwania i nie dającą się znaleźć w formie „wielu ciekawych maszyn tego typu w bardzo zbliżonych pieniądzach” 😉 . Konkretne oszczędności materiałowe wynikały z założeń projektu oraz specyfikacji systemu operacyjnego i tylko wydają się oszczędnościami. Budowanie takich urządzeń nie zalicza się w poczet prac domowych, a jeśli kogoś nie stać na zbudowanie takiego urządzenia samodzielnie, zawsze może kupić sobie gotowe ze sklepu, za dowolną kwotę jaką dysponuje. Każdemu wg potrzeb i kaprysu.
Pozdrawiam.
Żeś się Pan rozpisał na aż 64 strony i powyłamywał już pootwierane drzwi… Tylko po co? Na przykład taki Matrix Mini-i Pro 3 pewnie by zjadłby Pana streamerek na śniadanie. I popił sokiem z żuka ( to taki żart).
Bo mogłem 🙂 . A także aby nie musieć płacić 5000 zł za Matrixa, nota bene którego pierwszy Mini-I Pro grał tak samo lub miejscami gorzej od mojego fabrycznego Essence STX na 3x Muses8820 w bezpośrednim porównaniu swego czasu. A jak ktoś nie może, to musi kupować Matrixy. 😉
PS. Oczywiście pisanie komentarzy z tego samego konta ale pod innymi mailami i nickami (Jak, Misiu), wskazując na konkretne produkty konkretnego producenta jako rzekomą alternatywę, to pewnie czysty przypadek. 😉
Tylko ten wszystko mający streamer-dac-wzmak jak coś padnie to zostanie nam chiński elektrosmieć. Zamiast 3in1 będzie nic 🙂
Dlatego takie DIY ma ta zaletę ze zawsze da się jeszcze coś wymienić. Ja z kolei wolę proste pojedyncze urządzenia: np malinka, dobry dac, wzmacniacz. Miałem tranzystorowy, teraz mam lampowy. Potem może zmienię dac. Streamer nic nie wnosi do SQ. Może być cokolwiek. W sumie mi 24/96 wystarcza. Ważne za to jest oprogramowanie. I tu stawiam na Roon. DSP jest w sumie mi zbędne ale wygoda… W miesiąc zrobiłem przegląd i to rozwiązanie jest najlepsze. Volumio czy LMS średnio mi odpowiada, choć to drugie kusi Spotify i dość dużym wsparciem
„Bo mogłem” – świetna odpowiedź na zarzuty dotyczące majsterkowania. Podstawowy problem nie leży tu w wytwórstwie (kto zabroni tym co mogą?), tylko w topologii produktu. A jest to rzecz przemyślana i odpowiada na oczekiwania – dodajmy – subiektywne oczekiwania konfiguracyjne. Dotykamy tu fundamentalnego problemu- jak konfigurować źródło cyfrowe audio. Rozumiem entuzjazm wszystkich odtwarzających z komputera, ale walka z Asio/Srasio to nie dla mnie. Dla mnie powinień to być sprzęt, który jest współczesnym substytutem odtwarzacza cd – pudełko, które pobiera pliki z sieci internet (streaming). z sieci lokalnej (dyski sieciowe). Czyli streamer, nic odkrywczego. Pamięć lokalna urządzenia (dysk wbudowany) jest dodatkowym atutem i wtedy mamy też funkcjonalność serwera. Całość zwieńczona wyjściem analogowym do wzmacniacza czyli z dac. I tu zastanawiam się dlaczego ciągle w ramach budowania naszej prywatnej domowej biblioteki plików stawiamy na (sieciowe lub wbudowane) dyski? Przyznam, ze sam chciałem kiedyś kupić wspomniane Aune. Drobiazg wielkości paznokcia możemy już dziś kupić o pojemności 1 TB. Dlaczego poza odtwarzaczami przenośnymi, nie opieramy magazynu danych o karty pamięci? Gorzej to zagra niż z dysku?
Proszę zauważyć kuriozalność wspomnianych zarzutów o majsterkowanie. To trochę tak, jakby zbudował Pan sobie w garażu samodzielnie samochód i usłyszał krytykę za to, że go Pan w ogóle zbudował. Bo przecież można było iść do salonu kupić nowy. Ale fakt, że użytkownik pisał różne komentarze spod kilku maili i nicków oraz lokował konkretne produkty jest tu więcej niż wymowny. Czyli nie dość że kupić auto gotowe, to jeszcze marki X z salonu Y. 😉
ASIO to nie jest aż taki trudny temat, ale problemem jest aktualna architektura systemu Windows oraz kilka aspektów, o których pisałem zarówno tutaj, jak i w artykule o Xonarach, tj. głównie wsparcie sterowników oraz latencja samego systemu i sterowników nie-audio wraz z procesami systemowymi. Tego problemu w Windows 10 nie było. Aż do konkretnych kompilacji. Temat był bardzo szeroko komentowany i analizowany na różnych forach oraz na oficjalnym forum Microsoft. Niemniej po kilku latach człowiekowi może skończyć się cierpliwość po wielu latach odtwarzania muzyki z komputera. Aby była jasność – systemu ASIO wraz z dodatkowym DACiem i wzmacniaczem nie zamierzam likwidować. Po prostu w tym momencie serwer przejmuje jakby jego rolę w kategorii głównego systemu odsłuchowego.
Ależ można. Mógłbym bez problemu zintegrować np. z panelem przednim jakiś czytnik kart pamięci SD i podłączyć go np. via USB wewnętrznie do serwera, by móc czytać muzykę wprost z karty pamięci. Mogę też użyć czytnika takich kart na typowe USB i wpinać się z tyłu. Mogę również użyć pendrive’a USB o dużej pojemności i tak nota bene testowałem na początku cały serwer, ba, nawet stawiając na nim system operacyjny tego urządzenia.
Nie ma więc żadnych przeciwwskazań, aby oprzeć się wyłącznie o kartę SD. Problemem jest natomiast coś innego:
– wielokrotnie mniejsza żywotność takiej karty w ramach cykli zapisu niż pełnowymiarowy dysk SSD,
– wielokrotnie mniejsze transfery danych samej karty względem dysku SSD,
– wielokrotnie mniejszy transfer samej magistrali danych (USB vs SATA w tym wypadku),
– brak systemu TRIM/Garbage Collector, który jest realizowany przez firmware i kontroler dysku.
Nawet jeśli obejdzie Pan magistralę danych, wpadnie w pułapkę prędkości odczytu samej karty. Czy przełoży się to na działanie urządzenia? Na wolnej karcie na 100%. Na szybszych na pewno będzie Pan miał znacznie dłuższe uruchamianie się urządzenia, tak jak ja sam notowałem to na dosyć szybkich pendrive’ach A-DATA. Także nie ma tu argumentu zagrania gorzej, a po prostu czysto wydajnościowego i żywotności.
Artykuł przypomniał mi czasy kiedy sam majstrowałem takie urządzenie na Xonar ST i Linux-ie ;).
Skończyłem czytać po natknięciu się na „… kompletnie skopanej architekturze dźwiękowej systemu Windows, która narzuca na nas swoją własną warstwę abstrakcji.”
Taa i wszystkie stacje robocze masteringowe jak i sekwencery czy edytory audio (czyli cały dział pro audio) działające pod Windows operują na skopanej architekturze dźwiękowej. Protokół ASIO czy WASAPI załatwia wszystko – czyli przesył bit perfect.
Więc proszę przeczytać jeszcze raz treść ze zrozumieniem, bo o ASIO pisałem bardzo konkretnie i dokładnie. A o skopanej architekturze pisałem w kontekście Windows Audio.
PS. WASAPI to nie bit-perfect. To tylko wrapper. Jest o tym cały artykuł na blogu.
Ale to prawda – poza ASIO, okna to porażka w kontekście obsługi audio (ale nie jest to pozbawione zalet – implementacje np. dla deweloperów gier czy programistów są zwyczajnie rzędy wielkości prostsze). Choć warto też zauważyć, że większość dystrybucji Linuxa (zarówno te od Debiana jak i Red Hata) rozwiązało to jeszcze gorzej. Jedynie Apple poszło po rozum do głowy (dlatego większość sprzętó w studiach audio pod nim chodzi).
Szanuje. Osobiście ja bym jednak wolał kupić gotowca mimo że od strony Linuksa czy technicznej (ale nie projektowania) czuje się dość mocny.
Osobiście myślę o Volumio Primo a wzmak słuchawkowy to już mam. Ogólnie wolę mieć oddzielne pudełka – co ma wadę że może się nie zgrywać niby (to raczej kwestia indywidualnych upodobań i chyba psychologii) ale ogromną zaletą jest ze jak coś padnie to ty oo kawałek systemu do naprawy/wymiany.
Szczęście w jaki eszcesciu nie mam najlepszego słuchu choć muzyka jest dla mnie ogromnie ważna i od lat 90tych zawsze marzylem o fajnym sprzęcie. No właśnie – nawet chyba fajnym niż fajnie grający. Ciągle mi chodzi po głowie zakup CD od Cyrus – te ich pudełka są tak brzydkie że aż piękne 🙂
Jeszcze raz gratuluję realizacji!
Dziękuję Panie Wojciechu. Akurat prezentowanego urządzenia już nie posiadam – został sprezentowane członkowi rodziny na urodziny.
Aktualnie pracuję sobie od roku nad następcą, kilkukrotnie bardziej rozbudowanym i zaawansowanym, którego możliwości wykraczają poza jakiekolwiek dostępne gotowce na rynku. Tym razem będzie to też jednolita platforma testowa podług bloga i nadchodzących recenzji. To też jest powód czemu bawię się w takie rzeczy i poświęcam na nie czas. Gotowca jest owszem, kupić łatwiej, ale nie widziałem takiego urządzenia które oferowałby mi to, co zostanie zaimplementowane, jak np. zwielokrotnione wzmacniacze dedykowane do różnych rodzajów słuchawek, a nawet konkretnych modeli, jak HD 800, korygujących ich wady w oparciu o konkretne dane pomiarowe i elektryczne. Takie zastosowania i potrzeby diametralnie zmieniają wówczas człowiekowi perspektywę. 🙂