Instant Flow Max
Wszystko się zużywa? (2021)
Submitted by marcin on Sun 13-Jun-2021

polski
polski blog
salon24.pl


Artykuł został opublikowany w serwisie salon24.pl

Panie i panowie, dziewczęta i chłopcy, ladies and gentlemen, dzisiaj czas na ogólny przegląd tego, co mogło się zużyć w ostatnich latach w sprzęcie IT (samoistnie lub z niewielką pomocą).

Zaczęło się od tego, że ostatnio znalazłem dosyć ciekawą dwuodcinkową serię m.in. na temat pamięci lampowych i ferrytowych


Od tamtego czasu dużo się zmieniło, głupotą jednak byłoby twierdzić, że absolutnie wszystkie działania producentów podporządkowane są temu, żeby urządzenia były nietrwałe. Tych, którzy czytali moje wcześniejsze wpisy, być może zaszokuję, że powiem wprost - planowane postarzanie zdarza się nagminnie często, ale... (zawsze musi być jakieś ale) bywamy też ograniczeni technologią.

Ktoś może powiedzieć, że sprawa jest prosta i nie ma o czym mówić. Częściowo jest to racja. Pomyślmy sobie, że właśnie kupiliśmy jakiś nowy gadżet. Od razu po zakupie jest dotykany, naciskany, skręcany, ściskany czy szarpany. Z czasem pojawiają się na nim pierwsze rysy czy wgniecenia, tu i tam tłuszcz z palców, a może i woskowina z uszu, kropelki śliny, czy inne płyny. Do tego dochodzi wilgoć, kondensująca się na przykład przy przejściu z zimnego wilgotnego dworu do ciepłego pokoju.

Brrr. Okropieństwo.

Ale to nie wszystko...

Elementy elektroniczne – układy scalone

Poniżej zastosuję pewne uproszczenia, za które z góry przepraszam:

  1. układy scalone składają się z tysięcy, milionów czy miliardów elementów, które realizują funkcje w arytmetyce operującej na cyfrach 0 i 1. Przykładem takiej funkcji jest operacja AND zwracająca 1 na wyjściu elementu w sytuacji, gdy na wszystkich wejściach jest 1. Można powiedzieć, że 1 fizycznie uzyskane jest przez stan „prąd płynie” i 0 uzyskane jest przez stan „prąd nie płynie”.
  2. elementy półprzewodnikowe użyte do budowy układów charakteryzują się tym, że prąd płynie przez nie tylko wtedy, gdy dostarczamy określone natężenie i napięcie (nie mogą być zbyt małe, ale i nie mogą być za duże, bo wtedy dojdzie do zwarcia, element zmieni się w przewodnik, i prąd od tego momentu będzie zawsze w nim płynąć). Dokładniej wyjaśnia to pasmowa teoria przewodnictwa.
  3. temperatura układu wzrasta nie tylko przy przepływie wyższego prądu / napięcia, ale również przy szybszym taktowaniu (dane i instrukcje „przesuwane” wraz z kolejnymi taktami zegara odmierzającego czas)
  4. oprócz prądu o złych parametrach wrogiem układów jest zbyt duża temperatura. Teoretycznie obecne konstrukcje są bardziej odporne niż kiedyś (zawierają czujniki, które wymuszają wyłączenie albo obniżenie taktowania w sytuacjach krytycznych), ale prawa fizyki są nieubłagane i szczególnie ciągła praca w pobliżu granicy przegrzania może powodować degradację samego układu albo elementów towarzyszących (stąd raczej należy unikać bardzo licznych laptopów z procesorami Intela, które osiągają 100C w sytuacji, gdy temperatura krytyczna  to 105C).  Uniwersalna zasada: zawsze trzeba dbać o stan chłodzenia (wentylatory nie mogą być zapchane kurzem, kratki wentylacyjne zasłonięte, itp.)
  5. zwarcie może wywołać zalanie cieczą - nie musi to być faktyczny z nią kontakt, czasem wystarczy kondensacja pary wodnej (nawiasem mówiąc, producenci umieszczają w komputerach specjalne kropki, które zmieniają kolor również w ostatnim przypadku, co może być podstawą do unieważnienia gwarancji)
  6. przy bardziej zaawansowanym procesie technologicznym prądy i napięcia są mniejsze (układ się mniej grzeje), również drogi przepływu danych są krótsze. Z uwagi na to można wykorzystać wyższe taktowanie i przetworzyć więcej danych - układ M1 Apple wykonany jest w procesie 5nm (wartość oznacza wielkość elementów), i to jest jednym z powodów jego większej efektywności od konstrukcji AMD (7nm) czy Intela (14 lub 10nm)

Jeżeli mówimy o czymś takim jak „normalne” zużycie – układ prawidłowo użytkowany powinien wytrzymać długo, o ile… jest prawidłowo zbudowany. Istnieje bowiem takie zjawisko jak dyfuzja (przyspieszająca wraz z temperaturą), i choć tego nie widzimy, to jeśli położymy jeden związek obok drugiego, to elektrony na ich styku potrafią się przenikać. Z tego względu stosuje się różne domieszki, które powodują, że tego typu operacje wymagają (zbyt) dużo energii. Wyjaśnię to obrazowo – woda łatwo wsiąka w glebę; ale nie widzimy tego, jeśli wlejemy ją (wodę oczywiście) do szklanego naczynia.

W ostatnich latach dało się też zauważyć działanie producentów płyt głównych, którzy chcieli zwiększyć wydajność obliczeniową (czytaj: mieć lepsze wyniki niż konkurencja), i podawali na procesory Ryzen bardzo duże wartości napięć w trybie turbo. Sam to widziałem z Asrockiem TB3 ITX X570 (najwyższa wartość VCore wynosiła 1,48V), robili to również inni. Teoretycznie chwilowa praca z taką wartością nie powinna zaszkodzić tym układom, z drugiej strony w internecie na forach pojawiały się np. informacje o 1,3V i wskazanie, że dłuższa praca z wyższymi napięciami powoduje degradację Ryzenów z serii 3000 (być może dotyczy to tylko konkretnych egzemplarzy, i związane jest z tzw. szerzeniem FUD)

Kiedyś mówiono, że kontrola jest najwyższą formą zaufania. Istnieje obecnie wiele programów, dzięki którym możemy na bieżąco kontrolować napięcia i temperatury różnych elementów. W MacOS można np. wymienić TG Pro czy Temp Monitor, w Windows speedFan (nie jest już zbytnio uaktualniany) czy hwInfo, a pod Linuxem np. Psensor w połączeniu z czujnikami wbudowanymi w jądro.

Warto też wspomnieć, że jedną z przyczyn braku działania układów może być słabe przymocowanie do podłoża (obecna cyna nie zawiera ołowiu, i z czasem może ulec degradacji; dodatkowo płyty główne mogą ulegać różnym naprężeniom). Jest z tym związana pewna ciekawa historia. Około 2011 komputery właściwie wszystkich producentów miały problemy z kartami graficznymi Nvidii. Bardzo dużo serwisów proponowało tzw. rebailling, czyli ponowne lutowanie układu, ale najwyraźniej nie rozwiązywało ono prawdziwego problemu:


Jeżeli chodzi o zwarcia, to np. na kanale Daniela Rakowieckiego jest wideo z naprawy laptopa, do którego do złącza jack podłączono 48V (w sieci można również znaleźć schematy tzw. „USB Killera”, którego zadaniem jest przepuszczenie przez kontroler na płycie głównej zbyt dużego ładunku elektrycznego, a więc doprowadzenie do jego zwarcia).

Ciekawe jest również wideo o naprawie Asus VivoBook 15 i o błędach starszych Apple (w obu wypadkach mowa jest o braku chłodzenia albo przegrzewaniu jednego układu przez drugi)

Elementy elektroniczne – kondensatory

W starszych konstrukcjach (ok. 1999 – 2007) zdarzało się pękanie obudowy kondensatorów elektrolitycznych i wyciek elektrolitu, który potrafił wywołać korozję na płycie z elektroniką. Trzeba zauważyć, że niektórzy producenci potrafią je umieszczać w pobliżu grzejących się elementów, a to również wywołuje z czasem awarię


Nośniki danych – pamięci taśmowe

Wielkie szpule jak w magnetofonach szpulowych (albo znacznie większe) przeszły do historii


W przypadku komputerków 8-bitowych używało się zwykłych kaset magnetycznych (kto pamięta nagrywanie programów z radia albo przestawianie skosu głowicy śrubokrętem?), pierwsze IBM PC również miały odpowiednie złącze


Tu nośnikom mogła zaszkodzić temperatura, pole magnetyczne i zwykłe normalne zagięcia.

Nośniki danych - dyskietki

Kiedyś popularne, obecnie tak zapomniane, że można usłyszeć „Tato, tato, fajnie, że wydrukowałeś tę śmieszną ikonę na drukarce 3D”.

Na dyskietkach zapisywano dane na magnetycznym elastycznym okrągłym nośniku. Podobnie jak przy taśmach szkodziła im temperatura, pole magnetyczne i zwykłe normalne mechaniczne uszkodzenia.

Nośniki danych - dyski twarde

Te ciągle dzielnie walczą z pamięciami półprzewodnikowymi, i prawdopodobnie pozostaną z nami przez długie lata. Ich coraz większej skomplikowanie i większa precyzja powoduje, że bardziej niż kiedykolwiek szkodzą im wstrząsy czy wibracje w trakcie pracy. Ważne jest też, żeby ich obudowa pozostawała hermetyczna (a więc na pewno nie powinno otwierać się ich bez odpowiedniej komory).

Na pewno plusem obecnych konstrukcji jest to, że po wyłączeniu same parkują głowice (tzn. umieszczają je w specjalnych miejscach z dala od talerzy). Dla porównania / kiedyś wymagało to użycia odpowiednich komend (na wideo od 42:25 pokazano komendę „park”)


Nośniki danych - płyty CD/DVD/BlueRay

Mało odporne na dużą prędkość


Innym wrogiem były / są rysy (powodujące odbijanie światła lasera), temperatura, światło i czas (w zależności od użytego materiału dolna warstwa nośnika ulega zmatowieniu, przez co laser nie może odczytać warstwy danych)

Nośniki danych - pamięci flash

Pamięci półprzewodnikowe zrewolucjonizowały rynek - są dosyć odporne na warunki zewnętrzne (o tym za chwilę), nie zawierają części mechanicznych i pozwalają uzyskać niedostępne wcześniej prędkości. Używamy ich w różnych postaciach - jako kart (np. MMC, SD), kostek wlutowanych w płytę główną (eMMC, UFS) albo dysków (SSD w formacie 2,5", mSATA, czy kart M.2 SATA lub NVME). Zagrażają im właściwie trzy główne rzeczy: temperatura, bezczynność i zapis danych.

Z grubsza rzecz ujmując - z pamięci zapisujących jeden bit w komórce (SLC) przeszliśmy do dwubitowych (MLC), trzybitowych (TLC) i czterobitowych (QLC albo TLC 4 bit), mówi się też już o pięciu bitach (PLC). Im więcej bitów, tym więcej danych można zapisać... ale ponieważ komórki mają ograniczoną ilość zapisów (z reguły mniejszą przy wyższej ilości bitów), to i pamięć będzie nadawać się szybciej do wyrzucenia... żeby było ciekawiej, producenci udostępniają coraz szybsze interfejsy do swoich wyrobów, a to mocno zachęca do intensywniejszego ich używania (sam AnandTech zauważa, że kombinacja QLC i PCIe 4 w akurat testowanym nośniku nie jest chyba najlepsza).

Parametrem określającym trwałość nośnika jest TBW. Podaje on, ile danych można zapisać w ramach gwarancji. Nie jest on oczywiście wartością graniczną, po przekroczeniu której nośnik od razu nadaje się do kosza, ale dosyć dobrze określa jakość użytych komórek pamięci (w czasie, gdy królowały kostki MLC i TLC, przeprowadzano testy, i przykładowo 840 Pro 256GB z 73TBW zapisał trochę ponad 2.4PB, w innym teście 850 Pro 256GB z TBW 150GB zapisał 9,1PB).

Ilość zapisanych danych i czas pracy urządzeń jest podawana przez wiele programów badających SMART (hwInfo, CrystalDiskInfo, smartctl, etc.), obecnie pewne statystyki dotyczące „zużycia” dostępne są również dla „dysków” eMMC (szczególnie tych w standardzie 5.0) – patrz tutaj albo tutaj.

Należy zauważyć, że nagminną praktyką jest lutowanie układów – w laptopach zdarza się to przy pamięciach eMMC albo SSD (robi to podobno tak bardzo ekologiczne Apple przy systemach z M1).

Jeżeli chodzi o przechowywanie danych na nieużywanych nośnikach, to w 2015 pewne dane podawał na ten temat Anandtech (niestety nie udało znaleźć mi się nic późniejszego).

Wentylatory

Mają najczęściej podaną żywotność i potrafią się zatrzeć (należy o nie dbać, czyli regularnie czyść).

…a monitoring można przeprowadzać wspomnianymi już programami typu SpeedFan.

Płyty główne

Oprócz wcześniejszej wymienionych czynników (przegrzanie elementów, wylanie kondensatorów czy zwarcia) szkodzą im różnego rodzaju naprężenia, które wynikają z tego, że są używane w urządzeniach przenośnych albo z ciężkimi elementami - w przypadku urządzeń stacjonarnych nie jest niczym specjalnym chociażby montowanie bloków chłodzenia ważących ponad 1kg, albo coraz bardziej skomplikowanych kart graficznych (z tego względu konieczne jest montowanie odpowiednich podkładek, przestrzeganie sposobu montażu, albo również demontaż przed transportem, o czym nie można zapominać).

A tak swoją drogą - dlaczego stacjonarne płyty główne nie mają podobnego chłodzenia jak laptopy (tunelu powietrznego, który wywiewałby całe gorące powietrze z tyłu obudowy?)

Zawiasy w laptopach

Niektórzy producenci chyba po prostu chcą produkować buble:

(nawiasem mówiąc zawiasy w nowym Medionie Akoya również nie budziły mojego zaufania, pan Rakowiecki pokazuje problem również w Asus Zenbook)

Moim prywatnym zdaniem unikać należy również laptopów, w których dół podnoszony jest ponad powierzchnię (cały nacisk rozkłada się na zawias, który musi cały czas pracować)

Złącza, wtyczki i cienkie kabelki

Można powiedzieć, że praktycznie wszystkie problemy z tymi elementami wynikają ze zbyt oszczędnościowego wykonania lub celowego wprowadzania planowego zużycia (producenci chcą zmusić użytkowników do częstszych wymian). Przykłady:

  1. złącza typu MicroUSB bywają lutowane sztywno do płyt głównych, i po wielu podłączeniach możliwa jest utrata styku
  2. kabelki Lighting mające bardzo cienkie obudowy
  3. używanie „chyba najtańszej i najbardziej tandetnej tasiemki, jaką dało się znaleźć na chińskim rynku” (znów Apple, i tym razem problemy z podświetleniem matryc w laptopach)
  4. brak separatora we wtyczkach - wideo "Błędy konstrukcyjne MacBook vs Laptop - porównujemy Największe Porażki Apple" ok. 33.32

Problematyczna sytuacja z kablami przydarzyła się również HP, ten jednak producent zarządził odpowiednią akcję serwisową.

Pasty i pady termoprzewodzące

Z czasem twardnieją albo się kruszą i tracą swoje zdolności przylegania.

Dobre chłodzenie jest oczywiście podstawą – stąd tak bardzo liczy styk między powierzchnią układu i elementami odprowadzającymi ciepło (między nimi nie może być powietrza, tylko całkowicie wypełnienie np. z odpowiedniej, dobrze przewodzącej ciepło pasty). Jak to „doskonale” realizują niektórzy producenci, pokazał chociażby Daniel Rakowiecki w wideo „Uważaj na swojego Asus'a, wada fabryczna w większości modeli - naprawa kodu 43 w Asus GL552”


Należy też pamiętać, że niektóre pasty termoprzewodzące przewodzą również prąd (trzeba być ostrożnym przy ich nakładaniu) i nie dają się łatwo / w praktyce w ogóle usunąć. Mówię to o tzw. ciekłym metalu.

Baterie i akumulatory

Baterie litowe / polimerowe ze swojej natury tracą pojemność z każdym cyklem ładowania. Nie służą im również zbyt niskie i zbyt wysokie temperatury (a więc i szybkie ładowanie), jak i przechowywanie w stanie całkowitego naładowania i całkowitego rozładowania (np. Apple zaleca przechowywanie przy naładowaniu w pobliżu 50%).

Pod Windows informację o stopniu utraty pojemności podaje np. aplikacja hwInfo.

W świecie Apple bezpośrednio w iOS i MacOS można sprawdzić sprawdzić stopień utraty pojemności i ilość odbytych cykli ładowania (bezpośrednio albo przez narzędzia analizy). Należy zauważyć, że w przeszłości korporacja z Cuppertino z premedytacją zmniejszała maksymalny pobór prądu / wydajność w telefonach z bardziej zużytymi ogniwami, nie informując o tym użytkownika (po protestach dodano odpowiedni przełącznik).

W większości obecnych komputerów Apple gwarantuje 20% zużycia po 1000 cykli (podobnie wartości są dla telefonów i tabletów), u innych producentów często brak tak szczegółowych informacji, ewentualnie oferują oni „normalne” baterie i baterie o przedłużonej trwałości.

Taka mała dygresja w tym miejscu: w przypadku taniego Acera Swift 1 po około półtora miesiąca zużycie wynosi 0,4% (czyli z deklarowanych 17h teoretycznie „ubyły” 4 minuty). Komputer był ładowany mniej więcej 15 razy. Po roku powinno to być mniej więcej około 4% / 40 minut i 150 cykli ładowania (celowo nie liczę dokładnie), a po 1000 cyklach ładowania (6 latach) około 27%.

Podaję te wartości, żeby pokazać, że niższa półka również może oferować niezłą jakość. Trzeba zauważyć, że szybkie ładowanie (ładowanie większym natężeniem prądu) bardziej zwiększa temperaturę ogniw, a to dodatkowo może przyczyniać się do ich degradacji (z drugiej jednak strony Xiaomi podało, że ładowarka 200W pozwoli na zachowanie 80% po 800 cyklach, a Benchmark przy okazji podawania tej informacji zupełnie pokazał brak profesjonalizmu, odkrywając fakt, ze bateria nie ma stałej pojemności).

Przy obecnych bateriach zdarzają się przypadki puchnięcia ich obudowy (powiększania jej wielkości), czyli po angielsku tzw. swallowing. Jest to problem nagminny i tym bardziej przykry, że obecne ogniwa wbudowane są wewnątrz urządzeń, a ponieważ mają bardzo cienkie obudowy, to niszczą wszystko wokół, gdy zmieniają swoją objętość. Tego typu problemy mieli np. użytkownicy XPS 15 / Precision 5110 (Dell częściowo zarządził akcję serwisową w 2017 roku, i w niektórych wypadkach potrzebna była wymiana obudowy i touchpada).

Ogniwa ulegają akcjom serwisowym również z innych powodów, takich jak nieplanowana utrata pojemności czy zwarcia / samozapłon (to ostatnie działo się np. z Samsungiem Galaxy Note 7). Oba problemy mogły ujawniać się po jakimś czasie, i producenci profilaktycznie wymieniali całe partie elementów.

Ostatnim problemem jest wyciekanie elektrolitu bateryjek, które podtrzymują zawartość pamięci CMOS. Zdarza się to zazwyczaj po latach i dotyczy raczej „starego” sprzętu, skutki bywają opłakane:


albo

Obudowy

Tutaj właściwie głównie można mówić tylko o rdzewieniu albo żółknięciu. Z tym drugim „walczy” 8-bit Guy, który ma serię wideo o odświeżaniu starych plastików, np.

albo

Dobrą praktyką szczególnie w przypadku urządzeń mobilnych jest wybieranie tych konstrukcji, które mogą poszczycić się normami typu MIL-STD-810G lub IP (określają one odporność na zginanie, nacisk, ewentualnie pył i zalanie) – większość telefonów spełnia IP67, ale… dostanie się cieczy do środka nie jest uwzględnianie przy gwarancji.

Klawiatury

Przy klawiaturach można mówić głównie o zwarciach i braku odporności na czynniki mechaniczne. Teoretycznie mamy urządzenia odporne na zalanie, podobną deklarację składają producenci laptopów… ale stara zasada „lepiej zapobiegać niż leczyć” jest tu podstawą.

Apple chyba nie byłoby sobą, gdyby nie dodało tu nowej kategorii problemów. W pogoni za zmniejszaniem grubości najwyraźniej zapomniano o tym, że na świecie jest kurz i użytkownicy, którzy naciskają klawisze. Problem miały różne modele pomiędzy 2015 i 2019, powstał program naprawczy, który niczego nie naprawiał (do tego pozew zbiorowy), a całość zgrabnie opisuje tekst „Klawiatura nożycowa vs motyl” albo „Wszystko co musisz wiedzieć o klawiaturach, a nie zwracałeś nawet na to uwagi”.

Ekrany kineskopowe

W najstarszych ekranach zdarzało się wypalenie luminoforu

Ekrany LCD / LED / miniLED / microLED


Ekrany LCD składają się z punktów, a składowe koloru każdego punktu wyświetlane są oddzielnie (kontrolowane są przez oddzielne tranzystory). Producenci oznaczają panel jako całkowicie sprawny i nie podlegający wymianie gwarancyjnej, gdy ma on włączone na stałe maksymalnie określoną ilość punktów (ewentualnie określoną ilość składowych koloru w iluś punktach). Odpowiednie normy są zdefiniowane w standardach ISO, albo we własnych dokumentach producenta. Niektóre sklepy oferują płatny „test” na tę przypadłość, ale chcę przypomnieć, że usterka może pojawić się z czasem, a dodatkowo przy zakupie wysyłkowym w Polsce jest możliwość sprawdzenia i zwrotu produktu przez 14 dni. W bardzo specyficznych przypadkach można taki tranzystor „naprawić”, wyświetlając na przemian określone kolory, ewentualnie delikatnie uciskając powierzchnię panelu (ostatni sposób nie jest polecany, gdyż nacisk może spowodować uszkodzenie kolejnych punktów).

Technologia LCD dodatkowo wymaga podświetlenia. Kiedyś stosowano do tego lampy rtęciowe (z czasem świeciły one coraz słabiej), obecnie wykorzystuje się w tym celu diody LED, które chyba nie sprawiają już takich problemów (zresztą obecne monitory Della i większości producentów bardzo często mają tzw. tryby serwisowe, w których pokazują ilość godzin pracy urządzenia).

W przypadku produktów Apple (w sumie śmieszne, że często trzeba o nich oddzielnie wspomniać) można jeszcze mówić o dwóch problemach:

  1. z powłoką antyrefleksyjną (tzw. Staingate)
  2. ze wspomnianą już tasiemką czy wtyczką od matrycy

Ekrany AMOLED

Ekrany AMOLED charakteryzują się tym, że nie powinno na nich wyświetlać się statycznego obrazu (gdyż ten utrwala się, jak w ekranach plazmowych czy bardzo starych ekranach LCD). Z generacji na generacji efekt jest mniej widoczny, ale… np. widziałem go jeszcze w Samsungu S7.

Przypomnę też, że na powierzchniach szklanych ekranów można przyklejać folie ochronne – jak np. polecam mat od Smart Engineered.

Drukarki i materiały eksploatacyjne

W drukarkach atramentowych może zajść potrzeba wymiany poduszki czy pojemnika na atrament używany do czyszczenia głowic, a w laserowych co jakiś czas trzeba wymienić bęben.

Pomijając to urządzenia drukujące to temat rzeka. Doniesień o tym, że tanie konstrukcje pokazują błędy zaraz po gwarancji, albo że nie potrafią drukować, gdy w pojemniku jest jeszcze tusz, jest masa (tutaj nasuwa się właściwie tylko jeden zwrot, czyli „planowane postarzanie”).

Sam miałem kiedyś niesamowite problemy z atramentowym HP, średnie doświadczenia z EPSONEM na cartridge, za to nie zauważyłem praktycznie nic złego z produktem z serii EcoTank (również produkcji firmy EPSON).