Notebook A.D. 2012, czyli o czym trzeba mieć świadomość... (2.1, 2012)


Poniższy tekst został opublikowany w serwisie benchmark.pl

Od czasu do czasu zdarza mi się pomagać znajomym w procedurze wyborze nowego komputera. Pomyślałem, że warto zebrać kilka (tendencyjnych ?) uwag dotyczących aktualnie dostępnego sprzętu przenośnego (a dokładniej notebooków) i zrobić skrótowy przegląd pewnych rozwiązań.

Tekst ten jest jedynie pewną listą rzeczy do wzięcia pod uwagę, można go potraktować jako uzupełnienie znalezionego ostatnio wpisu blogowego Wolę mieć "złego" ThinkPada niż jakiegoś "laptopa".

Ekrany

Dawno, dawno temu używano specjalnych monitorów z kineskopem (CRT) lub w tańszej wersji zwyczajnych telewizorów. Emitowały one różnego rodzaju promieniowanie, miały do tego zazwyczaj niską rozdzielczość i niestety najczęściej wyświetlany przez nie obraz nie był zbyt mocno stabilny (zdarzało się różnego migotanie czy drganie):

Wady te przynajmniej częściowo eliminowano - przez pewien czas używano np. zewnętrznych filtrów (niektóre z nich były reklamowane chwytliwym hasłem "Oczy nie włosy, nie odrosną"), z czasem udoskonalono również same monitory tak, że te mogły obsługiwac coraz większe rozdzielczości oraz częstotliwości odświeżania obrazu. Szczególnie ta druga właściwość była ważna - przy najniższej 60 Hz oczy wielu użytkowników były zwyczajnie zmęczone migotaniem, przy wyższych nie było to tak mocno widoczne.

Następnie pojawiły się monitory LCD. Te nie emitowały promieniowania, ale (szczególnie w pierwszych modelach) generowały nie do końca stabilny obraz (wykorzystywano połączenie kablami analogowymi i ciężko było dostroić odpowiednie parametry). Ich wadą było również tzw. smużenie, czyli widoczny przez chwilę ślad po zmianie obrazu (co było uciążliwe np. przy wyświetlaniu filmów).

Monitory poprawiano, natomiast do notebooków trafiły głównie panele LCD w technologii TN. Tu niestety w wielu modelach wykorzystywano i wykorzystuje się matryce o słabych parametrach (przykładem może być dostępność matryc z częstotliwością odświeżania obrazu niższej niż 60 Hz, podczas gdy w telewizorach standardem stało się 100 i więcej Hz). Problemem jest także to, że producenci nie zawsze podają wykorzystywane modele lub ich parametry (poza ogólnikową informacją o wielkości lub rozdzielczości).

Żeby nie było łatwo, matryce LCD uznawane za lepsze (np. wykonane w technologii IPS) mają również swoje wady (np. konieczność wygrzania przed kalibracją kolorów).

Kolejnym problemem może być fakt coraz większej dostępności matryc lustrzanych (takich, na których oprócz obrazu często widać odbicie tego, co jest przed matrycą umieszczone) i wypierania z rynku ekranów typowo matowych. Tendencja ta niestety pogłębia się - o ile jakiś czas temu mat zarezerwowany był dla modeli biznesowych, obecnie nawet tam w niektórych modelach można znaleźć jedynie coś mniej lub bardziej błyszczącego. Sytuacji nie poprawia różne nazewnictwo - matryce lustrzane mają różne nazwy (glare, Bright View, True Life, itd.), spotkać można również określenia typu "matryca z powłoką antyodblaskową", "matryca z powłoką antyrefleksyjną" czy "matryca półmatowa". Problem świetnie obrazuje wątek Matryca matowa a półmatowa, antyodblaskowa, antyrefleksyjna, tym razem na przykładzie Vostro 3700, pozostaje jedynie sprawdzenie konkretnego egzemplarza lub w ostateczności próba "zmatowienia" ekranu odpowiednią folią.

Inne kwestie wiążą się z podświetleniem - jeszcze jakiś czas temu ekrany LCD podświetlane były głównie świetlówkami (tzw. CCFL), przez pewien czas można było spotkać podświetlenie zestawami kolorowych diód LED (tzw. LED RGB), obecnie używa się białych diód LED.

W przypadku tych ostatnich mamy co prawda kilka zalet, ale np. można spotkać informacje o prawdopodobnym zmniejszonym wydzielaniu melatoniny u użytkowników korzystających z tego typu ekranów (białe diody LED generują inne światło niż świetlówki).

W przypadku różnych typów podświetleń (ale szczególnie często LED) może pojawiać się poważny problem związany z mruganiem obrazu wynikający z faktu stosowania modulacji PWM do zmniejszania jasności elementów podświetlających (przy jasności mniejszej niż maksymalna są one mniej lub bardziej szybko włączane i wyłączane). Obrazuje to znakomicie poniższy filmik z YouTube - dla części użytkowników pokazany efekt może być odczuwalny (niekoniecznie natomiast mocno widoczny gołym okiem, a można udowodnić jego istnienie aparatem cyfrowym):

Kolejnym parametrem, na którą trzeba zwrócić uwagę, są proporcje obrazu. Tendencja jest niestety jedna - zmniejszanie obszaru roboczego. Tu właściwie nie ma wyboru: notebooków z ekranami 4:3 już nie ma, wybór jest jedynie pomiędzy 16:10 i 16:9 (16:9 wychodzą z użycia, więc trzeba się spieszyć z zakupem komputera chcąc posiadać jedną z nich).

Kolejny ważny wybór związany jest z rozdzielczością - temat stary jak świat: niestety ale obraz na LCD jest pokazywany "ostro" jedynie w maksymalnej rozdzielczości. Jej kwestia doboru będzie oczywiście sprawą indywidualną użytkownika, należy pamiętać natomiast o możliwości powiększania treści w nowoczesnych systemach operacyjnych (nie działa to zbyt idealnie, ale dla wielu osób powinno być już wystarczające).

I na koniec nowinka techniczna - dostępne jest kilka modeli notebooków z matrycą generującą obraz 3D. Ich zaletą jest dostępność częstotliwości odświeżania 120 Hz, niestety część z nich wymaga korzystania z okularów migawkowych (gdzie występuje szybkie włączanie i wyłączanie przesłon na obu oczach) lub ma powłokę błyszczącą.

Skalowanie obrazu i czcionki

Systemem najczęściej dołączanym jest obecnie Windows 7. Może nie zawsze tak dobry jak Windows XP (nie oszukujmy się...), ale wersja 64-bit jest jedynym sensownym wyborem przy konfiguracjach mających ponad 4 GB RAM.

Opcje dotyczące skalowania można znaleźć w Control Panel w Display (Set custom text size (DPI)).

Windows 7 potrafi wyświetlać czcionki korzystając z jeden z trzech technologii: Bi-level, Font Smoothing, ClearType (szerzej opisuje je wpis na blogu Windows 7). Aby je włączyć, należy:

  1. Bi-level: otworzyć Control Panel, wybrać ikonę "System and Security", wybrać ikonę "System", kliknąć odnośnik "Advanced System Settings", przejść do zakładki "Advanced", kliknąć "Settings..." przy "Performance", odznaczyć "Smooth edges of screen fonts"
  2. Font Smoothing: należy wyłączyć Bi-level (opcja "Smooth edges of screen fonts" z punktu 1 zaznaczona), następnie otworzyć Control Panel, wybrać ikonę "Display", kliknąć odnośnik "Adjust ClearType text", odznaczyć "Turn on ClearType", kliknąć przycisk "Next"
  3. ClearType: należy wyłączyć Bi-level (opcja "Smooth edges of screen fonts" z punktu 1 zaznaczona), następnie otworzyć Control Panel, wybrać ikonę "Display", kliknąć odnośnik "Adjust ClearType text", zaznaczyć "Turn on ClearType", kliknąć przycisk "Next", wybrać odpowiednie proponowane opcje i zamknąć kreatora

Niestety nawet wtedy system może nie spełniać wymagań wszystkich użytkowników (którzy właśnie przesiedli się z Windows XP) i teksty mogą być "nieostre". Powodem może być używanie czcionki z rodziny "Segoe UI" zamiast "Tahoma". Aby to zmienić, należy w kluczu Rejestru HKEY_LOCAL_MACHINE\SOFTWARE\Microsoft\Windows NT\CurrentVersion\Fonts usunąć wartości z wpisów:

"Segoe UI (TrueType)"="segoeui.ttf"
"Segoe UI Bold (TrueType)"="segoeuib.ttf"
"Segoe UI Italic (TrueType)"="segoeuii.ttf"
"Segoe UI Bold Italic (TrueType)"="segoeuiz.ttf"
"Segoe UI Semibold (TrueType)"="seguisb.ttf"
"Segoe UI Light (TrueType)"="segoeuil.ttf"
"Segoe UI Symbol (TrueType)"="seguisym.ttf"

a następnie w kluczu HKEY_LOCAL_MACHINE\SOFTWARE\Microsoft\Windows NT\CurrentVersion\FontSubstitutes dodać wpis "Segoe UI" = "Tahoma".

Kolejną możliwą przyczyną jest problem z wyborem właściwych ustawień ClearType - Windows 7 zawiera wprawdzie odpowiedni kreator w Control Panel, ale lepszy może być dodatek napisany dla Windows XP w ramach pakietu PowerToys. Należy go zainstalować i uruchamiać wybierając opcję "Run program" w okienku "Program Compatibility Wizard"

Gdy i nie pomoże, należałoby wyłączyć style graficzne w oknach. Stracimy wtedy wprawdzie dużo efektów graficznych (np. przezroczystość tytułów okien, miniatury na pasku zadań, mogą się pojawiać artefakty na pasku zadań), ale system wtedy rzeczywiście będzie generował obraz podobny jak "stary" Windows XP. Aby to uczynić, należy otworzyć Control Panel, wybrać ikonę "System and Security", wybrać ikonę "System", kliknąć odnośnik "Advanced System Settings", przejść do zakładki "Advanced", kliknąć "Settings..." przy "Performance", odznaczyć "Use visual styles on windows and buttons".

Głośność i chłodzenie

Tu niestety niewiele się zmieniło od wielu lat - dosyć nagminnie zdarzają się konstrukcje, które generują irytujące dźwięki. Żeby było gorzej, nowe modele bywają gorsze niż starsze (przykładem może Asus G74SX, który wykazuje się zdecydowanie gorszą kulturą pracy niż G73SW - co wynika chociażby z recenzji na notebookcheck.pl).

Chłodzenie powinno być nie tylko ciche, ale również wydajne. I znów tu można mieć problem - w różnych notebookach dochodzi czasem wręcz do awaryjnego zwalniania pracy przegrzewających się podzespołów (np. widoczny jest tzw. throttling procesorów). Przykłady można mnożyć nawet w konstrukcjach z górnej półki.

Podobnie w niektórych modelach operacja przeczyszczenia wiatraka i otworów wentylacyjnych z kurzu wiąże się z rozebraniem praktycznie całego komputera.

Tutaj jedyną radą jest studiowanie recenzji notebooków (np. na notebookcheck.pl) oraz ich instrukcji serwisowych (które pokazują, jak skonstruowano odpowiednie podzespoły), najlepsze mogą być konstrukcje z dwoma ciepłowodami i dwoma oddzielnymi wiatrakami - jednym dla procesora, jednym dla karty graficznej.

Oprócz problemów z układem chłodzenia można napotkać na buczenie wynikające z zastosowania szybkoobrotowego dysku 7200 obrotów/minutę. Tu niestety ciężko jest coś zrobić, można próbować z tym walczyć stawiając komputer np. na podkładkach gumowych takich jak uszczelki hydrauliczne (to działa :)).

Ewentualnym rozwiązaniem może być tutaj wymiana dysku np. na praktycznie bezgłośny SSD z pamięcią flash. Są one zdecydowanie droższe, ale zazwyczaj znacznie szybsze i wiele z nich ma mniejsze zużycie energii i większą wytrzymałość na wstrząsy (nie zawierają bowiem części ruchomych). Rozwiązanie idealne ? Niestety nie - różne konstrukcje miewają problemy z kontrolerami prowadzące do utraty danych (tutaj niestety źle może kojarzyć się kontroler SandForce), w niektórych pojawiają się piski od elementów elektronicznych, trzeba też liczyć się z ich zużyciem (obecne konstrukcje bazują na układach w technologii MLC i ich trwałość szacuje się na dziesiątki tysięcy lub tysiące cykli zapisu - jest ona tym mniejsza, im mniejsza jest wielkość układów i nowocześniejszy sposób ich wytworzenia).

Ostatnią wadę można częściowo eliminować odpowiednio konfigurując system operacyjny (który nie wykonuje niepotrzebnych operacji dyskowych) - w Windows 7 jest to włączenie obsługi instrukcji TRIM, wyłączenie defragmentacji, indeksowania plików oraz funkcji Super Fetch. Wielu producentów zaleca również pozostawienie pewnej części obszaru dysku wolnej tak aby mogła być użyta przez firmware jako obszar zapasowy.

Z kronikarskiego obowiązku należy tutaj również przypomnieć, iż w takim dysku należy także użyć specjalnych metod kasowania danych (jeśli ten chcemy sprzedać lub oddać) oraz dbać o wgrywanie aktualnego firmware (który w wielu modelach często jej poprawiany i drastycznie może zmieniać ich funkcjonalność).

Zamiast klasycznego SSD można również rozważyć kupno dysku hybrydowego (Momentus XT) zawierającego w jednym małą pamięć flash i duży klasyczny dysk magnetyczny - może on znakomitym kompromisem (duża pojemność, spora prędkość, średnia cena, nie wymaga wsparcia systemu operacyjnego dla oszczędzania pamięci flash) pomimo obecności części ruchomych.

Należy zauważyć, iż niektóre dyski magnetyczne zawierają opcję formatu z sektorami z 4096 bajtów zamiast 512 (tzw. Advanced Format). Rozwiązanie to pozwala przy wsparciu systemu operacyjnego (np. Windows Vista z Service Pack 1 lub Windows 7) zachować tę samą wydajność i zwiększyć ilość miejsca oraz poprawić korekcję błędów (opisuje to np. ulotka firmy Seagate).

Niektóre urządzenia magnetyczne zawierają w sobie dodatkowe zabezpieczenia na wypadek upadku (np. dyski Seagate z końcówką "G"), w przypadku jego braku należy mieć zainstalowane w systemie operacyjnym sterowniki odpowiedniego akcelerometru (dzięki którym w przypadku nagłego przyspieszenia dysk zostanie wyłączony).

Obecne niektóre dyski mają także funkcje szyfrowania sprzętowego, w przypadku ich braku można skorzystać z rozwiązań systemu operacyjnego (np. BitLocker w Windows Vista/7 Ultimate) lub oddzielnych bezpłatnych (np. TrueCrypt).

Powyżej wspomniałem o piskach - cecha ta również nie została wyeliminowana przez wielu producentów i warto przez zakupem poszukać w Internecie informacji z tym związanych (czy np. podobna przypadłość nie pojawia się w sprawdzanej serii).

Złącza

Najbardziej chyba uniwersalnym standardem stało się USB 2.0, pojawiają się także urządzenia z USB 3.0 (jedno gniazdo tego typu powinno być obowiązkowe) oraz FireWire.

Dyski i napędy optyczne podłączane są zazwyczaj przez złącze SATA, można się także spotkać z mSATA (złącze na dyski w formie karty rozszerzeń) i eSATA (do urządzeń zewnętrznych).

Jeśli chodzi o karty rozszerzeń, mamy do czynienia z kolejnymi wersjami mini PCI (np. dla urządzeń Wifi) albo z ExpressCard (dla urządzeń zewnętrznych).

Z kolei do przesyłania obrazu służyć mogą: złącze VGA (analogowe), DisplayPort albo HDMI (dwa ostatnie cyfrowe). Należy zauważyć, iż niektórzy producenci tworzą obecnie konstrukcje, w których sygnał analogowy bywa niższej jakości (widać mruganie na podłączonym monitorze).

Obecnie najczęściej spotykany standard pamięci to DDR3, zaś zewnętrzne karty graficzne są w formie układów z którąś wersją MXM.

Co będzie niedługo tutaj przyszłością ? Thunderbolt znany z produktów Apple.

Procesory

Według mnie warto wybrać jak najnowszą konstrukcję Intela (obecnie coś z rodziny Intel Core i5 lub i7 czyli układy o kodowej nazwie "Sandy Bridge", w 2012 pojawi się nowa rodzina o kodowej nazwie "Ivy Bridge"). Oferują one bardzo ciekawą i przydatną funkcjonalność, czyli automatyczną (sprzętową) możliwość zwiększania swojej prędkości w zależności od obciążenia (technologia Turbo Boost w wersji 2.0).

Układy Intela z rodziny Core i3 nie posiadają podobnej możliwości, po zakupie urządzenia warto sprawdzić jej faktyczne działanie np. programem HWiNFO (zdarza się, że konieczna jest aktualizacja BIOS).

Droższe układy posiadają także hyperthreading - oddzielny logiczny rdzeń procesora jest realizowany w ramach fizycznego (najczęściej działa to szybciej niż przy braku tego rozwiązania, ale wolniej niż przy dwóch rdzeniach fizycznych). Przy wyborze danego układu warto zatem zawsze obejrzeć specyfikacje producenta lub spojrzeć w rankingi (jak ten).

Co do procesorów AMD - od kilku lat w wielu wypadkach są one wolniejsze od konkurencji (niemniej jednak mogą być również wystarczające do typowych zastosowań).

Karty graficzne

Obecnie tendencją jest łączenie zaintegrowanych kart graficznych z procesorami - nie są zasadniczo tak szybkie jak oddzielne konstrukcje, ale zużywają mniej energii, co przekłada się na dłuższą pracę na baterii i wydzielanie mniejszej ilości ciepła. Mamy tutaj ciekawą sytuację na rynku - konstrukcje AMD mają najczęściej wolniejsze części procesorowe (od wytworów Intela), ale ich grafika zaintegrowana bije konkurencję na głowę.

Coraz częstszym rozwiązaniem jest również technologia Optimus - komputer posiada kartę graficzną zintegrowaną oraz drugą oddzielną NVdii, przełączanie między nimi odbywa się w sposób automatyczny (działa to obecnie w Windows 7). Pozwala to również generować mniej ciepła i wydłuża czas pracy na baterii.

Podobne rozwiązanie (ale znacznie mniej popularne) jest dostępne dla grafik AMD i nazywa się PowerPlay.

Zdarzają się również rozwiązania, gdzie przy pracy bateryjnej obniżane są częstotliwości taktowania dodatkowej karty graficznej (np. Dell M6600).

Zdecydowanie polecam zawsze poszukanie recenzji danego modelu lub przejrzenie rankingów (jak ten).

Dźwięk

Najczęściej niestety generowany przez tani zintegrowany układ połączony z dwoma głośnikami, możliwe jest wtedy jedynie dokupienie zewnętrznej karty dźwiękowej i cieszenie się efektami poprzez słuchawki lub dodatkowe głośniki :(

Obudowy

Myślę, iż możnaby sformuować zasadę - im droższy sprzęt, tym lepsza (np. metal zamiast plastiku). Niestety widać tutaj również często brak zdrowego rozsądku i chociażby błyszczące powierzchnie znakomicie odbijające światło, na których idealnie widać odciski palców...

Oprogramowanie

Obecnie coraz więcej urządzeń zawiera EFI zamiast BIOS, który z punktu widzenia uzytkownika niewątpliwie ma swoje zalety, ale też wady (np. możliwość implementacji DRM). Przykładowy opis różnic między tymi rozwiązaniami można znaleźć w artykule EFI vs BIOS - najważniejsze różnice. Należy tutaj zauważyć, iż niektóre moduły EFI mogą być wczytywane z zainstalowanego dysku twardego.

Oprócz tego w notebooku może znaleźć się oddzielne menu konfiguracyjne technologii RAID, AMT albo ASF.

Szczególnie konfiguracja tych ostatnich powinna być obowiązkowa - pozwalają one bowiem na mniejsze lub większe zdalne kontrolowanie urządzenia i stanowią rozszerzenie funkcjonalności znanych ze standardu Ethernet (funkcji typu Wake-On-LAN).

Jeśli chodzi o bezpieczeństwo, nie ma chyba na rynku żadnego notebooka pozwalającego na sprzętowe zablokowanie zmiany BIOS/EFI (np. jakimś mikro-przełącznikiem), w niektórych modelach możliwe jest natomiast wymuszenie aby uaktualnienia były akceptowane wyłącznie wtedy gdy są cyfrowo podpisywane.

Należy dodatkowo zwrócić uwagę na częste występowanie takich archaizmów jak:

  1. dodawanie zainstalowanego systemu operacyjnego z partycją typu recovery (tworzy to problemy np. związane z podziałem dysku na partycje z uwagi na obecność MFT na środku partycji - konieczne jest używanie programów takich jak PerfectDisk aby móc skorzystać z opcji Settings -> Control Panel -> Administrative Tools -> Computer Management -> Storage -> Disk Management -> Shrink Volume)
  2. nieatrakcyjne możliwości dołączanego oprogramowania (np. w przypadku darmowego Office 2010 Starter wymagane jest stworzenie na jego potrzeby niedostępnego dla użytkowników dysku Q:), pojawił się nawet angielski termin "decrap" na określenie usuwania uciążliwych "bonusów" i uzyskanie przez to "czystego" systemu operacyjnego
  3. zmuszanie użytkowników do zakupu sprzętu z Microsoft Windows (tutaj można spotkać określenie "Microsoft tax" czyli podatku od sprzętu płaconego dla firmy Microsoft) - pomimo odpowiednich zapisów licencyjnych część producentów komputerów nie chce zwracać użytkownikom pieniędzy za zwrot zakupionego "dobrowolnie" systemu operacyjnego
  4. zmuszanie użytkowników do używania przestarzałych sterowników (najczęstszy przykład - ogólne pakiety ze strony producentów kart graficznych nie potrafią ich wykrywać lub nie obsługują zmiany jasności)
  5. domyślne instalowanie okrojonych sterowników (konieczne bywa pobranie ze strony producentów układów pełnych wersji)
  6. brak płyt instalacyjnych (po zakupie zazwyczaj konieczne jest ich wykonanie z użyciem zainstalowanego programu producenta, czasem możliwe jest wtedy wykonanie płyty instalacyjnej "czystego" systemu)

Zakup i przetestowanie

W chwili obecnej cło i podatek nie jest doliczany przy imporcie sprzętu z obszaru Unii Europejskiej, możliwy jest jego bezproblemowy zakup np. z Wielkiej Brytanii (dosyć dużą popularnością wydaje cieszyć się tamtejszy outleet Della albo ebay.co.uk).

W przypadku urządzeń z Polski zakupionych na odległość generalnie obowiązuje 10 dniowy okres zwrotu (lub 3 miesięczny w przypadku braku informacji od sklepu o tej opcji). Jest to regulowane prawnie i obarczone różnymi obostrzeniami (np. brak śladów użytkowania, nie dotyczy aukcji z licytacją albo opcji z odbiorem osobistym, itd.), kwestią dyskusyjną bywa zazwyczaj zwrot kosztów wysyłki towaru (w jednym sklepach jest to robione, w innych nie)...

Jeśli chodzi o przetestowanie nowego nabytku, można wymienić takie narzędzia jak:

  1. testy wbudowane w BIOS/EFI (powinny być one podstawą, zawierają czasem ciekawe funkcje jak np. testy OBIST napędów optycznych w Dellach)
  2. memtest86+ (dokładne testy RAM)
  3. programy producentów dysków twardych (część jak SeaTools firmy Seagate obsługuje "długi" i rozbudowany test DST w ramach technologii SMART jedynie w wersji uruchamianej z płyty, dodatkowo mogą one wymagać wyłączenia RAID/AHCI w BIOS/EFI)
  4. programy antywirusowe w wersjach z płyty (np. Kaspersky udostępnia w ten sposób aktualną wersję swojego pakietu)
  5. HWiNFO (pozwalają np. sprawdzić stan SMART dysku twardego albo rzeczywistą prędkość procesora)
  6. HD Tune (dzięki niemu można sprawdzić rzeczywiste prędkości transferu dysku)

Podsumowanie

Moim zdaniem notebooki będą królować na rynku jeszcze przez wiele lat i nowe konstrukcje są niewątpliwie bardzo interesujące.

Prawdą jest również to, iż ciężko jest oszukać subiektywne odczucia i nowe urządzenia często przegrywają ze starszymi w różnych kwestiach (chociażby w kategorii obraz z uwagi na niedostępność matryc matowych), brak jest również powszechnej implementacji znanych od lat funkcjonalności (np. Sound Blaster Live! pojawił się około 1998, w 2012 w wielu modelach brak np. zaawansowanych ustawień przestrzennych dotyczących dźwięku czy nawet podobnej jego jakości).

Niewygoda zaś może powodować i powoduje poszukiwanie przez użytkowników alternatyw tak jak się stało w przypadku BlueRay ("zabezpieczenia" i ograniczenia dostępnych systemów plików w zakresie długości nazw plików czy ilości poziomów zagłębienia katalogów nie dodały temu rozwiązaniu popularności). I stąd również rosnąca popularność urządzeń Apple...