Add new comment

Ubuntu 10.04 i Mint 9 - rozwiązania dla ludzi ? (2010)


Poniższy tekst z pewnym zmianami (choćby innymi grafikami ;)) został wpierw opublikowany w serwisie benchmark.pl

W ostatnim miesiącu pojawiły się dwie nowe wersje dystrybucji Linuxa - 29 kwietnia Ubuntu 10.04 o kodowej nazwie "Lucid Lynx", a 18 maja oparta na niej Mint 9 o kodowej nazwie "Isadora".

Chciałbym pokazać skąd się wywodzą (co rzutuje mocno na to, jakie są), zaprezentować obie na platformie x86 (popularne "PeCety") i zastanowić się bliżej nad tym, na ile mogą zainteresować przeciętnego użytkownika Windows.

  Spis treści
 
  1. Dawno, dawno temu...
  2. Podstawą są jądra
  3. Ubuntu i Mint
  4. Instalacja
  5. Środowisko graficzne
  6. Konsola
  7. Grafika 3D
  8. Wszystko jest plikiem
  9. Aktualizacje
  10. Programy
  11. Sieć
  12. Sprzęt
  13. DOS i Linux i Windows w jednym stali domku...
  14. Bezpieczeństwo
  15. Plusy i minusy
  16. Podsumowanie

Dawno, dawno temu...

Wpierw solidna dawka historii. Wszystko zaczęło się od Multicsa działającego na komputerach GE-645. Został on stworzony przez MIT (Massachusetts Institute of Technology), AT&T Bell Labs i General Electric w latach 60 XX wieku (a więc w czasie, gdy Ameryka jest uwikłana w wojnę w Wietnamie, trwa wyścig o lądowanie na Księżycu, korporacje takie jak Intel i AMD jeszcze nie istnieją). Był rewolucyjny, ale sprawiał różne problemy.

Z tego powodu w AT&T Bell Labs zapada decyzja o stworzeniu czegoś nowego. Tym czymś jest UNICS (nazwa została później zmieniona na Unix) powstały w 1969 na architektury PDP-7 i PDP-11/20 firmy DEC. W pracach nad nim biorą tacy ludzie jak Ken Thompson, Dennis Ritchie czy Brian Kernighan (znany głównie jako twórca języka programistycznego C stworzonego początkowo na potrzeby pisania Unixa). 3 listopada 1971 zostaje opublikowana pierwsza edycja. W 1972 Unix zostaje przepisany w możliwej dużej części na język C i powstaje druga edycja. 1973 - trzecia i czwarta edycja.

AT&T licencjonuje całość dla uniwersytetów i firm trzecich. Od 1974 zaczynają powstawać ich wersje niekoniecznie zgodne z kolejnymi edycjami od AT&T i między sobą, wiele z nich z Unixem nie ma nic wspólnego poza ogólnymi zasadami budowy (mówimy o systemach unixopodobnych). Z tego względu po wielu latach w końcu tworzone są pewne standardy. I tak w 1999 Executable and Linkable Format (ELF) stał się podstawowym dla plików binarnych, a w latach 80-tych XX wieku organizacja IEEE (Institute of Electrical and Electronics Engineers) opublikowała zestaw norm opisujących standard POSIX (Portable Operating System Interface for Unix) przedstawiający sposoby budowania systemów operacyjnych tak, aby zachować między nimi przenośność oprogramowania. Pierwsza wersja jest z 1988, były też oczywiście kolejne. Żeby nie było wątpliwości - obecne Windows również przynajmniej częściowo potrafią być zgodne z tymi standardami (i stąd np. system umie umieszczać na dyskach pliki i katalogi z rozróżnieniem wielkości ich liter, co zresztą jakiś czas temu pokazywałem dla partycji NTFS).

Z ciekawostek: swoją wersję Unixa w latach 80-tych XX wieku rozwijał Microsoft (Xenix bazowany początkowo na wersji 7 Unixa od AT&T). Z kolei w 1978 z wersji 6 powstaje 1BSD będący początkiem linii, z której wywodzą się np. darmowe FreeBSD (tworzony od 1993) i OpenBSD (od 1994). Również darmowy Open Solaris ma swoje korzenie w Solarisie (wcześniej znanym jako SunOS i tworzonym od 1982). Obecnie także MacOS (a dokładniej Mac OS X z 2001 i późniejsze) to system unixopodobny (oparty m.in. na rozwiązaniach FreeBSD i OpenBSD).

Przytoczę jeszcze dwie ważne daty. Pierwszą jest 1983. Richard Stallman ogłasza wtedy rozpoczęcie projektu GNU mającego na celu stworzenie darmowego klona Unixa (w ramach projektu powstaną m.in. różne programy). Jest to odpowiedź na działanie AT&T z początku lat 80-tych ("zamknięcie" źródeł systemu i komercyjne ich sprzedawanie), obecnie projekt jest finansowany i popularyzowany m.in. przez organizację non-profit Free Software Fundation (Richard Stallman jest jej prezydentem). Drugą jest 1987 i opublikowanie przez Andrew Tanenbauma pierwszej wersji darmowego Minixa używanego do nauczania studentów.

Szerzej na temat tego typu zależności można poczytać chociażby w WikiPedii, ja odesłałbym dodatkowo np. do wykresu na stronie Unix History.

Czym więc jest Linux ? O tym już w kolejnym rozdziale :)

Do góry

Podstawą są jądra

Mówimy, że DOS, Windows, Linux, FreeBSD, OpenBSD, ReactOS, itd. itd. są systemami operacyjnymi. Co to tak naprawdę znaczy ?

Definicji jest wiele, ja odwołam się do polskiego tłumaczenie słów Andrew Tanenbauma: "System operacyjny jest warstwą oprogramowania operującą bezpośrednio na sprzęcie, której celem jest zarządzanie zasobami systemu komputerowego i stworzenie użytkownikowi środowiska łatwiejszego do zrozumienia i wykorzystania.".

Myślę, że definicja jest prosta i czytelna. W każdym systemie jest to rozwiązane trochę inaczej, niemniej jednak zawsze będziemy mogli mówić o podstawowym elemencie jakim jest jądro. Jest ono wczytywane i uruchamiane po starcie komputera przez moduł ładujący czyli tzw. bootloader (ten z kolei jest uruchamiany przez BIOS/EFI) i który w obecnych systemach zawiera mechanizmy związane z obsługą procesów (ich przerywanie, kontrola uprawnień, itd.), urządzeń (sterowniki), pamięci operacyjnej, jej rozszerzenia na dysku (czyli pamięci wirtualnej), systemów plików... O ile w Windows to instalator dobiera komponenty związane z daną konfiguracją sprzętową, o tyle np. w Linuxie to użytkownik jest w stanie bardzo precyzyjnie kontrolować ten fragment systemu.

Czym tak naprawdę jest Linux ? Nazwa ta określa nie jeden system, ale całą rodzinę systemów unixopodobnych w których wspólne jest właśnie jądro. Do niego dodane są inne programy (najczęściej powstałe w ramach projektu GNU, ale nie tylko) tworząc tzw. dystrybucję. Spotyka się tu czasem nazwę GNU/Linux. Takimi dystrybucjami są np. Debian, Ubuntu, Mint, Slackware, Fedora, itd. Każda z nich ma najczęściej jakieś swoje zasady (np. zakaz włączania oprogramowania bez kodu źródłowego), jest zazwyczaj zgodna z normami POSIX, bywa również zgodna ze specyfikacją określoną w ramach projektu Linux Standard Base (LSB) i domyślnie proponuje jakiś znany format paczek instalacyjnych z programami (najczęściej deb jak Debian, rpm jak Fedora, archiwum tgz z dodatkowymi plikami wewnątrz jak Slackware albo lsb jak zdefiniowano w LSB).

Z historią jądra systemu GNU/Linux nierozłącznie wiąże się data 25 sierpnia 1991 i osoba Linusa Torvaldsa (wtedy studenta uniwersytetu w Helsinkach). Wysyła on wtedy swój historyczny list, w którym pisze o chęci stworzenia takiego rozwiązania na architekturę x86. Całość jest w jakiś sposób inspirowana m.in. Minixem. We wrześniu 1991 powstaje wersja 0.01, wydanie 0.11 z grudnia 1991 jest kompilowalne na komputerze działającym pod kontrolą siebie samego, z kolei 0.12 (luty 1992) jest opublikowana pod licencją GNU General Public License (GPL). W styczniu 1992 powstaje grupa dyskusyjna alt.os.linux, wielu ochotników zaczyna wspierać pracę Linusa. Kolejne "duże" wersje pojawiają się ze stosunkowo niedużymi odstępami:

  • 14 marca 1994 - 1.0.0
  • 9 czerwca 1996 - 2.0.0
  • 25 stycznia 1999 - 2.2.0
  • 4 stycznia 2001 - 2.4.0
  • 17 grudnia 2003 - 2.6.0

Jak widać - numery wersji składają się obecnie minimum z trzech cyfr. Jeżeli środkowa jest nieparzysta, dana wersja jest testową. Z kolei czasem spotyka się również np. czwartą cyfrę. W Ubuntu i Mincie mamy obecnie jądro 2.6.32 (pomimo, iż została już wydana stabilna wersja 2.6.33).

Z bardziej znanych wydarzeń: w 2003 SCO pozywa IBM o złamanie należących do nich praw patentowych (a dokładniej o dodanie do jądra linuxowego fragmentów, których byli właścicielami). Całość zostaje w końcu oddalona...

Obecnie jądro linuxowe jest udostępniane na stronie www.kernel.org na licencji GNU GPL2, skąd każdy może je bezpłatnie pobrać. Można je wykorzystywać na bardzo wielu platformach sprzętowych.

Jest ono monolityczne. Poszczególne elementy wewnątrz takie jak sterowniki mają dostęp do wszystkich zasobów (a więc również np. pamięci zajętej przez inne elementy) czyli działają w tzw. trybie jądra. Nie jest ważne w tym przypadku, iż mogą być one fizycznie ładowane z oddzielnych plików na dysku. Przyspiesza to całość, ale powoduje problemy w przypadku błędów.

Ta ostatnia wada spowodowała, iż od dawna próbowano stworzyć takie jądro, w którym ilość elementów z dostępem do wszystkich zasobów byłaby minimalna, a możliwie duża ilość sterowników byłaby fizycznie od siebie odseparowana (tzw. mikrojądro). W 1992 i 2006 kwestia ta (tzn. co jest lepsze - mikrojądro czy jądro monolityczne ?) była dosyć gorąco omawiana między Linusem Torvaldsem i Andrew Tanenbaumem. O ile wczesne implementacje idei mikrojądra były dosyć wolne, obecnie z ich zaletami można się zapoznać np. w systemie Minix 3.

Do góry

Ubuntu i Mint

Czas przejść do Ubuntu i Mint :) Poniżej ich krótkie porównanie:

  Ubuntu Mint
minimalna ilość miejsca na dysku 5 GB 3 GB
minimalna rozdzielczość 1024x768 800x600
minimalna ilość RAM 512 MB 512 MB
koniec wsparcia kwiecień 2013 (wersja biurkowa),
kwiecień 2015 (wersja serwerowa)
kwiecień 2013
wsparcie społeczność, firma Canonical Ltd społeczność
platformy sprzętowe x86 (32 i 64 bitowe) i inne (np. ARM) x86 (32 i 64 bitowe)

W przypadku pierwszej z nich na stronie www producenta można znaleźć opisy i wskazówki dotyczące działania z mniejszą ilością RAM.

Miałem możliwość przetestowania całości na różnych konfiguracjach:

  • w maszynach wirtualnych (oba systemy)
  • na słabej konfiguracji zbliżonej do netbookowej, czyli jednordzeniowy procesor o prędkości ok. 1Ghz, RAM 256MB-512MB, mały i wolny dysk, zintegrowana karta graficzna Intela (Ubuntu)
  • dwurdzeniowy procesor Intela ok. 2Ghz, 3GB RAM, karta graficzna NVidii (Mint)

Obie dystrybucje wykorzystują różne rozwiązania (m.in. format pakietów instalacyjnych) z innej dystrybucji Linuxa o nazwie Debian. Są to wydania o długim czasie wsparcia (LTS czyli Long Term Support).

Ubuntu promuje tzw. "wolne oprogramowanie" (w bardzo wielkim uproszczeniu: dostępne z kodem źródłowym i na "odpowiedniej" licencji nie ograniczającej praw użytkownika - dokładna definicja została przedstawiona na stronie projektu GNU). Nie należy tego mylić z  oprogramowaniem i pojęciem "open source" (bardzo dokładnie różnice zostały opisane np. na stronie projektu GNU). Szerzej manifest twórców dotyczący celów i zasad tworzenia jest dostępny tutaj.

Autorzy Minta piszą z kolei o tworzeniu eleganckiej, aktualnej i komfortowej dystrybucji biurkowego systemu GNU/Linux.

Do góry

Instalacja

Po wejściu na stronę Ubuntu i kliknięciu na odnośnik Download Ubuntu mamy dostęp do różnych wersji - "głównej", "Netbook edition" oraz pochodnych ("Kubuntu", "Edubuntu", "Xubuntu"). Różnią się one głównie wyglądem i standardowo zainstalowanymi programami, mamy wydania 32 i 64-bitowe. Są to tzw. wersje LiveCD (aby skorzystać z systemu nie trzeba nic zmieniać na dysku twardym). Można je nagrać na płytę/pamięć flash, uruchomić z nich komputer, a następnie ewentualnie przenieść ich zawartość na dysk twardy.

Alternatywną opcją jest użycie oddzielnego tekstowego instalatora albo zainstalowanie całości na partycji z Windows poprzez program instalacyjny działający w okienkach Microsoft (tzw. rozwiązanie WUBI dostępne na płycie jako plik wubi.exe albo oddzielnie).

Postanowiłem wpierw przetestować najmniej "przyjazny" wariant (z tekstowym instalatorem). Chciałem użyć możliwie małego modułu uruchomionego z płyty CD, który pobrałby wszystkie pakiety przez sieć. Ponieważ miałem pewne problemy z jego znalezieniem, wykorzystałem google (hasło "ubuntu network installation"). Pierwszy odnośnik zaprowadził mnie na stronę "Installation", a stamtąd do pliku mini.iso (tylko 13 MB !)

Po wypaleniu obrazu na płycie uruchomiłem z niej komputer... Na ekranie pojawił się niezbyt zachęcający komunikat:

Trzeba było nacisnąć jakiś klawisz, żeby zobaczyć "właściwe" menu startowe:

Potem pojawia się już instalator tekstowy (dzięki temu obraz płyty jest mały) znany chociażby z Debiana. Wpierw wybieramy język, a później klawiaturę:

Widać tutaj niestety pewne braki w lokalizacji, ale też dużą ilość obsługiwanych wariantów.

Później konfigurujemy ustawienia sieci (ja wykorzystywałem połączenie przez Ethernet i nie wiem, czy możliwe jest użycie w tym procesie WiFi) i wybieramy lokalizację serwera z plikami. Następnym krokiem jest odpowiedź na pytania związane z ustawieniami zegara.

Następnie przechodzimy do partycjonowania dysku. Tu proponowany jest domyślnie system plików z charakterystycznej dla Linuxa serii "ext" (a konkretnie ostatnia wersja "ext4"). Należy zauważyć, iż jest to już obecnie stabilne rozwiązanie, a ewentualne problemy wynikające ze sposobu działania zostały wyeliminowane wraz z jądrem 2.6.30 (wyjaśnia to np. WikiPedia). System ten może być natomiast ewentualnie wolniejszy niż "ext3", co zostało przedstawione na stronach Ubuntu. Domyślne proponowana jest również oddzielna partycja na plik wymiany. Moim zdaniem można ewentualnie (np. przy dużej ilości RAM) zrezygnować z niej i później umieścić pamięć wymiany w pliku podobnie jak w Windows (wymaga to jednakże dodatkowych komend).

Później następuje znacznie dłuższe już pobieranie podstawowego systemu (tutaj brakuje informacji o przewidywanym czasie całej tej operacji).

Po wykonaniu tego konieczne jest podanie danych logowania użytkownika (nazwa i hasło) i wskazanie, czy jego katalog domowy ma być szyfrowany. Wtedy instalator wykonuje ulubione pobieranie kolejnej porcji plików...

Następnie wybieramy, czy aktualizacje mają być pobierane automatycznie i na dysku pojawiają się (cóż za zaskoczenie) kolejne porcje plików.

Później decydujemy o tym, jakie grupy pakietów mają być pobrane. Wybrałem "Ubuntu Netbook" i wtedy można było już pójść na dłuższą kawę (tym razem od początku do końca pasek postępu jest z odliczaniem)...

I wreszcie koniec - instalacja boot-loadera, konfiguracja zegara i prośba o wyciagnięcie płyty z napędu.

W przypadku Mint na stronie Download dostępne jest "tylko" 8 wersji (Live CD, Live DVD, wersja dla producentów komputerów i użytkowników z USA/Japonii - każda 32 i 64-bitowa). Pobrałem 32-bitową Live CD i po uruchomieniu z niej komputera zobaczyłem następujący pulpit (na obrazku poniżej pokazany z rozwiniętym menu Start).

Mimo faktu, iż system pokazał się dzień wcześniej, widać już informację o 66 uaktualnieniach :) Z kronikarskiego obowiązku: widoczne przy zegarku komputery nie są niestety animowane jak w Windows XP (czyżby projektanci zapatrzyli się aż tak mocno na Windows 7 ;) ?)

Po kliknięciu ikony "Install Linux Mint" i podaniu odpowiedzi na 7 prostych pytań (podobnych to tych z instalatora tekstowego) Linux został posadzony na dysku. Wystarczyło tylko wyjąć płytę z napędu, zrestartować komputer i już można było rozpocząć pracę...

Z ciekawostek: o ile wersja CD Ubuntu nie mieściła mi się na płytę CD-RW 700 MB, o tyle z Mintem nie miałem tego drobnego "problemu".

Sprawdziłem również opcję alternatywną czyli instalator w technologii WUBI. Na płycie Minta w głównym katalogu jest on umieszczony jako plik mint4win.exe. Należy go uruchomić pod Windows (na obrazku działa w Mincie), podać dane takie jak hasło użytkownika czy wielkość dysku (którą chcemy przeznaczyć na Linuxa), a zainstaluje całość jak zwykłą aplikację okienkową (jest widoczna w "Dodaj/Usuń programy" oraz menu startowym systemu Microsoftu). Dzięki tej opcji możemy zapoznać się z tym rozwiązaniem bez potrzeby partycjonowania dysku !

Są pewne minusy różnice. I tak np.:

  1. operacje dyskowe mogą być wolniejsze (co jest wyraźne wskazane przez producenta)
  2. brak w systemie dostępu do partycji Windows, na której posadzono pliki Linuxa partycja Windows, na której posadzono pliki Linuxa, znajduje się w zupełnie innym miejscu systemu plików niż pozostałe (to zauważyłem u siebie)
  3. partycja wymiany jest zakładana samoczynnie

Do góry

Środowisko graficzne

W zależności od tego, co wybraliśmy podczas instalacji, po starcie komputera zostaniemy poproszeni (albo nie) o podanie nazwy użytkownika, jego hasła i środowiska. Poniżej pokazany został ekran logowania z Ubuntu.

Niżej zostało pokazane standardowe środowisko "Ubuntu network edition". Wersja "2D" (któej używam później) różni się tym, że programy (sygnalizowane tutaj ikonami na pulpicie, które notabene można wyłączyć) mogą być pokazywane normalnie w menu (podobnie jak w Windows w menu Start).

Mint z kolei domyślnie proponuje barwy zielone i wygląd bardziej zbliżony do Windows.

Od strony technicznej: systemy unixopodobne najczęściej jako środowisko graficzne wykorzystują rozwiązania zgodnie z X Window System znanym również jako X11. Jego istotą jest obecność serwera (tzw. X Servera). Obsługuje on pulpit, zdefiniowane są z jego użyciem wyłącznie elementarne operacje związane z położeniem okien, kursora myszy i naciskanymi klawiszami. Jest to klasyczna architektura klient-serwer i nie jest wielkim problemem udostępnienie pulpitu np. poprzez sieć (coś na wzór Remote Desktop z Windows). Dystrybucje Linuxa przez lata zawierały jego implementację o nazwie XFree86, obecnie jest to częściej X.Org (również w Ubuntu i Mint). Z ciekawostek: Mint nie blokuje domyślnie kombinacji klawiszy Ctrl+Alt+Backspace restartującej środowisko graficzne (w Ubuntu trzeba to sobie uaktywnić).

X11 nie definiuje styli okien albo wyglądu ich krawędzi. Robi to dodatkowy element czyli tzw. menedżer okien. Istnieje wiele różnych (np. Fluxbox, AfterStep czy Xmonad), dwoma najpopularniejszymi są obecnie KDE i Gnome (które dodatkowo zawierają takie aplikacje jak menedżer plików, pasek zadań, menu startowe i inne elementy budujące spójne i kompletne środowisko graficznie jak w Windows oraz udostępniają zestawy bibliotek pozwalających programistom w prosty sposób pisać aplikacje okienkowe - odpowiednio QT i GTK+).

Gnome powstaje w ramach projektu GNU. Jest ono dosyć mocno preferowane zarówno w Ubuntu jak i Mint (pokazane powyżej pulpity zostały zbudowane właśnie w oparciu o nie). Wersja 1.0 została wydana w marcu 1999, wersja 2.0 w czerwcu 2002, obecna to 2.30 (użyta w opisywanych dystrybucjach).

Biblioteki QT przez lata były własnością firmy Qt Development Frameworks przejętej obecnie przez Nokię (znaną z produkcji telefonów komórkowych). Obecnie są udostępnione na licencji GNU GPL. Niestety, ale KDE w wersji 4 szczególnie we wcześniejszych wydaniach było i jest dosyć mocno krytykowane ze względu na powolność, duże zużycie zasobów oraz brak stabilności. Obecna wersja to KDE 4.4.2, poniżej przykładowy pulpit z Ubuntu.

Do góry

Konsola

Ubuntu i Mint dosyć mocno dbają o to, aby użytkownik mógł zrobić wszystko w okienkach. Jest również inne rozwiązanie (z którym systemy unixopodobne są mocno kojarzone) czyli konsola czy jak kto woli linia komend albo terminal. Historycznie jest ona wcześniejsza niż środowiska graficzne i jest o wiele bardziej rozbudowana niż w Windows.

Użytkownik wpisuje szereg poleceń (ich składnia częściowo zależy od tego, z jakiego rozwiązania czyli tzw. powłoki korzysta), a one w formie tekstowej pokazują rezultaty. Wynik działania jednego może być przekazany do innego i mówimy tutaj o tzw. potokach. Przykładowo: "ls" pokaże nam spis plików i katalogów w katalogu, w którym się znajdujemy, a "ls | more" podzieli ten spis na strony (żeby przejść do kolejnej, niezbędne będzie naciśnięcie klawisza). Takie przekazywanie możemy stosować wielokrotnie, systemy unixopodobne mają zresztą wiele małych narzędzi, które potrafią zrobić praktycznie wszystko z przekazywanymi wynikami...

Kilka odpowiedników poleceń z linii komend Windows:

  • "dir" to "ls"
  • "ipconfig" to "ifconfig"
  • "copy" to "cp"
  • "move" to "mv"
  • "cd" to "cd"

Żeby zobaczyć pomoc do jakiejś komendy, wystarczy wpisać "man nazwa_komendy". Aby z kolei zadziałała ona w tle (zanim się zakończy, my mamy znów dostęp do terminala i możliwość wydawania poleceń), na jej końcu należy dodać spację i "&".

Pracę w konsoli możemy sobie ułatwić wykorzystując np. Midnight Commandera (komenda "mc") naśladującego nieśmiertelnego Norton Commandera (dla osób, którego nie kojarzą tego drugiego - jest to to rozwiązanie w stylu Total Commandera).

Wspomniałem o powłokach - są bardzo różne, wiele ma swój język programowania (możliwość uruchamiania skomplikowanych skryptów). Dla ciekawych: Ubuntu i Mint standardowo proponują powłokę bash.

Konsola jest dostępna jako oddzielny program w menu środowisk graficznych. Alternatywnie: zawsze mamy dostęp do maksymalnie sześciu terminali (kombinacja klawiszy CTRL+ALT+F1 do CTRL+ALT+F6), a nasze środowisko graficzne (o ile jest oczywiście uruchomione) zobaczymy ponownie po użyciu CTRL+ALT+F7.

Do góry

Grafika 3D

Na rynku dostępne są obecnie dwa standardy związane z tworzeniem grafiki 3D: Direct3D będący częścią bibliotek DirectX (nieodłączanie związanych z Windows, zamkniętych i tworzonych przez Microsoft) oraz OpenGL (dostępny dla bardzo różnych systemów operacyjnych).

Dystrybucje Linuxa zawierają najczęściej bibliotekę Mesa 3D będącą darmową implementacją OpenGL. Jest ona w stanie działać nawet, gdy w systemie nie ma działającej sprzętowej akceleracji (poniżej przykładowe demo "glxgears" i wynik komendy "glxinfo" z zaznaczonym fragmentem wskazującym na użycie programowego sterownika). Nawiasem mówiąc Windows ma podobne rozwiązanie dopiero wraz z siódemką (WARP10).

Moja karta graficzna NVidii w Mincie została wykryta i zaproponowany został mi własny sterownik producenta (a ja skorzystałem z tej propozycji). Panel różni się znacząco od tego z Windows, inne są np. wartości ustawień barw (podanie tej samej gammy, jasności, itp. nie daje takich samych kolorów jak w systemie Microsoftu). Po włączeniu tego sterownika przestała mi działać kontrola jasności klawiszami funkcyjnymi, z uporem maniaka po restarcie systemu włączana była zawsze najwyższa rozdzielczość.

Możliwe było już wtedy włączenie efektów graficznych pulpitu (zapewnione przez rozwiązanie Compiz). I tak np. okna przy poruszaniu mogą się zachowywać jak żelki, przy powiększaniu jak trampolina, pulpit może być jedną wielką kostką, Alt-Tab może wyglądać jak w Windows Vista i 7, itd.  Opcji jest o wiele, wiele więcej... Niestety na filmiku poniżej widać jeden problem (migotanie). Nie jest ono zauważalne podczas używania systemu i prawdopodobnie wynika z niedoskonałości programów nagrywających (próbowałem  Istanbul, recordMyDesktop i XVidCap i ten ostatni został wybrany ostatecznie).

Z kolei w Ubuntu na karcie zintegrowanej Intela miałem inny problem - jak uruchomić akcelerację 3D ze sterownikami od Intela ? Brak było zbioru konfiguracyjnego X.Org oraz narzędzia konfiguracyjnego. Należało "tylko" zalogować się do konsoli, zatrzymać interfejs graficzny ("sudo service gdm stop"), użyć komendy "sudo Xorg -configure", w sekcji "Device" zamienić sterownik z "vesa" na "intel", dodać wpisy do sekcji "Monitor" wygenerowane np. przez komendę "gtf" i uaktywnić je w sekcji "Screen". Moim zdaniem troszkę przerażające dla przeciętnego użytkownika, nie udało mi się uruchomić efektów graficznych pulpitu.

Czy tak czy inaczej - praktyczne działanie całości (sugeruję jednak sprzętową akceleracje ;)) pozwoli sprawdzić np. sympatyczna gra Extreme Tux Racer. Można sobie też poczytać artykuł Is Windows 7 Actually Faster Than Ubuntu 10.04? (po angielsku), który próbuje porównać sterowniki Intela, Nvidii i ATI z tym dla Windows 7. Nie wypada to najlepiej dla Linuxa, niemniej jednak moim zdaniem pokazuje, iż ta dystrybucja nie jest całkiem "osierocona".

Do góry

Wszystko jest plikiem

Jak poruszać się w tych systemach ? Co jest gdzie ?

Paradoksalnie wpierw napomknę trochę o Windows - obecne wersje (takie jak XP, Vista czy 7) wywodzą się z Windows NT oraz linii Windows 9x opartej na MS-DOS. Przez wiele lat użytkownicy zostali przyzwyczajeni do tego, iż:

  • wielkość liter nie ma znaczenia w nazwach plików i katalogów
  • kolejne partycje i urządzenia (dyski twarde, napędy optyczne, itp.) są oznaczane literami alfabetu i dwukropkiem. I tak stacja dyskietek to zazwyczaj "A:" lub "B:", pierwsza partycja dysku twardego to "C:", itd. (nawiasem mówiąc - o ile obecnie można przynajmniej częściowo zmieniać przypisania w oknie "Computer Management", o tyle kiedyś było to całkowicie niemożliwe).
  • pełna ścieżka do katalogu czy pliku zazwyczaj składa się z nazwy urządzenia i kolejnych katalogów oddzielonych wyłącznie "\"
  • uprawnienia do katalogów i plików są teraz (na partycjach NTFS) określane z użyciem tzw. list dostępu (ACL)
  • w nazwie pliku może być tylko jedna kropka, a fragment nazwy po niej jednoznacznie określa format

Nie jest to obecnie częściowo prawda - wielkość liter może mieć znaczenie, urządzenia mogą być udostępniane również jako kolejny "katalog", ścieżki mogą zawierać także "/", kropek może być już wiele. Dzieje się tak częściowo właśnie ze względu na zgodność z POSIX.

W systemach unixopodobnych wygląda to następująco:

  • wielkość liter ma znaczenie
  • pełna ścieżka składa się z kolejnych katalogów oddzielonych wyłącznie "/"
  • w klasycznych rozwiązaniach dany plik czy katalog ma swojego właściciela (najczęściej użytkownika, który go stworzył) oraz jest przypisany do tzw. grupy (w której mogą się znaleźć dowolni użytkownicy systemu). Uprawnienia określa się dla właściciela, grupy i wszystkich innych.
  • kropek może być wiele

Nie ma dowolności w umieszczaniu plików gdziekolwiek (do tego dąży także obecnie Windows ;)). Podam kilka przykładów:

  • "/boot" - skompilowane jądro
  • "/dev" - pliki, które plikami nie są :) Wszystkie widoczne tam "zbiory" są bowiem tworzone dynamicznie przez jądro i zawierają dane związane z kolejnymi fizycznymi urządzeniami (są mocno zależne od systemu) takie jak np. zawartość ich pamięci (Unix bowiem próbuje wprowadzić ideę, aby dosłownie wszystko móc obsługiwać podobnie jak plik)
  • "/etc" - pliki konfiguracyjne
  • "/home" - katalogi kolejnych użytkowników systemu, w których mogą oni składować swoje dokumenty (jego odpowiednikiem jest windowsowy "Documents and Settings", w Viście i Windows 7 zaś "Users")
  • "/mnt" lub "/media" - najczęściej w nich możemy znaleźć zawartość dyskietki czy CD-ROM
  • "/proc" - zawiera tworzone dynamicznie przez jądro "pliki" z informacjami o wszystkich uruchomionych w systemie programach
  • "/root" - pliki administratora
  • "/tmp" - pliki tymczasowe

Pełna ścieżka do katalogu z plikami użytkownika zwanych ich katalogiem domowym (w "/home" albo "/root") bywa skrótowo oznaczana przez "~/", pliki o nazwach rozpoczynających się od kropki są traktowane przez wiele programów jako ukryte. Prawda, że jest to proste ?

Do góry

Aktualizacje

Obie dystrybucje zawierają moduły sprawdzające obecność aktualizacji. Wybór pakietów do uaktualnienia czy ręczne sprawdzenie dostępności w obu systemach wymaga niestety podania hasła użytkownika.

Pakiety w Ubuntu są zapisane w różnych repozytoriach ("main", "restricted", "universe", "multiverse"). Klasyfikacja związana jest np. z dostępnością kodu źródłowego albo innego typu wsparcia (szerzej jest to opisane na stronie producenta). Jeżeli chcemy mieć jasne powiadamianie o nowościach (jak w innych systemach), musimy wykonać dodatkowy krok opisany przez producenta. Niestety pomimo tego mój system miał z tym problemy i musiałem od czasu do czasu samemu klikać odpowiedni przycisk...

Mint korzysta z pakietów Ubuntu, co widać na załączonym obrazku (pokazana jest zawartość pliku /etc/apt/sources.list, który określa źródła w dystrybucjach GNU/Linux wykorzystujących paczki Debiana).

Jego firmowy program do instalowania aktualizacji wydaje się być znacznie "przyjaźniejszy" i działa...

Do góry

Programy

Mint i Ubuntu mają zainstalowane trochę inne domyślne programy. Przykładowo: w pierwszej dystrybucji znalazłem od razu chociażby kodeki do filmów. Do przysłowiowego szczęścia brakowało mi pakietu "mscorefonts" (są to czcionki znane z Windows i ich brak to dziś chyba lekka przesada) i Javy (tej nie było z uwagi na brak miejsca na płycie).

Dodanie czegokolwiek nie jest jednakże problemem. Mamy Centrum Oprogramowania Ubuntu. Znalazłem w nim np. "swoje" Gammu.

W Mincie "firmowy" program tego typu wygląda zupełnie inaczej i pozwala na ocenianie poszczególnych pakietów. Ma drobne niedoróbki - czasem np. zdarzało się, że kliknięcie na przycisk do instalacji nie dawało żadnych rezultatów... Podobnie po dodaniu jakiegoś pakietu nie zmieniał się wygląd jego ikony (symbolizującej stan instalacji) na listach z już otwartymi wynikami wyszukiwania...

Gorsze w tym systemie jest coś innego - bardzo duży niepokój wywołuje ostrzeżenie widoczne przy instalacji programów z użyciem komendy "apt-get" (standardowej dla dystrybucji korzystających z pakietów w formacie Debiana):

UWAGA: następujące pakiety nie mogą być zweryfikowane !

Ostrzeżenie uwierzytelnienia zignorowano.

Nie występuje w Ubuntu dla tych samych pakietów i świadczyć może o niesprawdzaniu podpisów cyfrowych !

Przy braku próbie wywołania jakiejś niezainstalowanej aplikacji w terminalu oba systemy wskazują jaką komendą go dodać. W przypadku Ubuntu mogłem mieć jedynie pewne zastrzeżenia do polonizacji - OpenOffice w mojej instalacji standardowo nie był spolszczony (trzeba było dodatkowo wejść w systemowe menu "Języki", aby został zaproponowany brakujący dodatek).

Wiele programów znanych z Windows ma swoje dosyć podobne odpowiedniki. I tak np. "K3b" zamiast Nero, "Open Office" zamiast Microsoft Office, "Krita" zamiast Paint.NET, "Krusader" zamiast Total Commandera. Z ciekawostek: istnieją nawet silniki napisane przez entuzjastów różnych gier pozwalające w nie zagrać pomimo tego, że ich producent tego nigdy nie przewidział (np. ScummVM działa chociażby z plikami "The Secret of Monkey Island"). Nie należy się tutaj absolutnie obawiać niskich numerów wersji - w przypadku komercyjnych programów dla okienek Microsoftu często ich producenci publikują ich kolejne "duże" wersje tylko po to, aby wywołać wrażenie dużych zmian i zwiększyć sprzedaż (a tutaj nie ma podobnej "potrzeby").

Są też inni menedżerowie do instalacji programów. Niestety zależności między pakietami nie zawsze są dobrze opisane. Przykładowo: w mojej instalacji Ubuntu chciałem dodać KDE. W tym celu uruchomiłem "Menedżer pakietów Synaptic", wybrałem "Środowisko Graficzne KDE" na liście grup pakietów, aplikację "plasma-netbook" na liście pakietów i po dłuższej chwili można było próbować przelogować się do nowego środowiska. Piszę próbować, gdyż komputer zawieszał się po początkowym ekranie logowania (przed wybraniem środowiska). Z tego względu przy instalacji tego systemu polecam wybranie od razu "Kubuntu netbook", o ile będziemy chcieli korzystać z KDE. Musimy niestety być przygotowani na to, iż to środowisko zacznie np. "rządzić" ustawieniami fontów różnych aplikacji.

Trzeba przypomnieć, iż oprócz "firmowo" dostępnych programów możemy również wykorzystać zgodność z dystrybucją Debian albo (po doinstalowaniu odpowiednich paczek) LSB. Zawsze można także próbować kompilować programy przygotowane dla różnych rozwiązań unixopodobnych (która z uwagi na dostępność wielu bibliotek i narzędzi ma duże szanse skończyć się sukcesem). Jednym słowem, jeśli jest na co narzekać, to wyłącznie na klęskę urodzaju ;)

Do góry

Sieć

Ponieważ łatwy dostęp do Internetu jest najważniejszy dla wielu użytkowników, kilka słów o przeglądarkach.

Domyślnie proponowany jest Firefox 3.6.3. Instalacja dodatków nie różni się od tego co znamy w Windows - Flash Player czy Ad-Block to kwestia kilku kliknięć myszy. Jeśli chcemy Javę w Ubuntu, trzeba wykonać dodatkowy krok opisany przez producenta. W moim Mincie z kolei trzeba było dodać pakiet "sun-java6-plugin" (ale przy wyłączonej przeglądarce !).

Zauważyłem migotanie przy odtwarzaniu filmików z użyciem Flasha w trybie pełnoekranowym (dotyczyło to strony AXN Scifi). Piszę o tym, gdyż w Windows na tym samym komputerze takiego efektu nie było. Podobnie nie zadziałał VOD Onetu pomimo dostępnej implementacji Silverlighta (pakiet "moonligh-plugin-mozilla").

PeaceKeeper wykazał 20 punktów różnicy w stosunku do wersji z Windows ("aż" 1%).

Jest oczywiście również dostępna Opera i Chrome (pod nazwą Chromium).

Do góry

Sprzęt

Wsparcie dla sprzętu w systemach GNU/Linux i innych jest w dużej mierze związana z możliwościami jądra.

W przypadku platformy x86 obsługiwane są m.in. standardy oszczędzania energii APM i obecny ACPI, dźwięk powstaje z użyciem pakietów powstałych w ramach projektu ALSA (OSS jest już praktycznie nieużywany), z obsługą tunerów czy kamer związane są elementy z projektu Video4Linux, monitorowanie temperatury uzyskamy dzięki lm-sensors, sterowniki dla Bluetooth pochodzą z Bluez, wspierane są praktycznie wszystkie popularne systemy plików. O kartach graficznych pisałem już wcześniej. O takich "drobiazgach" jak obsługa SATA, wieloprocesorowości, USB 3.0 czy pamięci flash USB nawet nie wspomnę...

Różne sterowniki bywają dostępne czasem nawet w kilku wersjach - np. "otwartej" (tworzonej przez społeczności programistów) i "zamkniętej" (udostępnianej przez producenta sprzętu). Czasem obsługiwane są wyłącznie podstawowe właściwości (np. w karcie dźwiękowej Sound Blaster X-Fi Go! brak jest dodatkowych efektów dźwiękowych takich jak symulacja otoczenia)

Karty WIFI mogą być obsługiwane w oparciu o sterowniki napisane dla Windows. Zapewnia to rozwiązanie o nazwie ndiswrapper - tutaj jest przykładowy opis jego wykorzystania dla dystrybucji Ubuntu, natomiast Mint miał je już standardowo dodane.

Z bardziej "egzotycznych", ale również ważnych (których niestety nie przetestowałem): udało mi się np. znaleźć wsparcie dla akcelerometra chroniącego dyski twarde w notebookach HP (ale już "poza" dystrybucjami). Nie wiem też jak w praktyce obsługa Blue-Ray (według opisów z Internetu działa) czy SSD (zgodnie z opisami wsparcie komendy TRIM na "ext4" wymaga co najmniej jądra 2.6.33).

Ciekawostką jest, iż w Mincie domyślnie znalazłem program HardInfo dosyć dobrze zaspokajający moją potrzebę zobaczenia szczegółów konfiguracji sprzętowej (obie opisywane dystrybucje nie mają bowiem niczego na wzór Menedżera Urządzeń z Windows). Niestety nie pokazywał on poprawnie np. wszystkich urządzeń USB, stąd musiałem posiłkować się "hwinfo" działającym w konsoli...

Do góry

DOS i Linux i Windows w jednym stali domku...

Podstawowym chyba argumentem zwolenników systemów Microsoftu przeciw Linuxowi jest brak zgodności. binarnej Nie do końca jest to prawda, o czym świadczą dostępne tutaj programy (mogą być dodane np. z użyciem wskazanych wcześniej menedżerów).

Najbardziej znanym pakietem pozwalającym na uruchamianie skompilowanych aplikacji Windows jest Wine (skrót "Wine Is Not an Emulator"), który próbuje zaimplementować funkcje tego systemu w środowisku X11. Jest to trudne (co widać po liście obsługiwanych programów w najwyższym statusie Platinum) ze względu na ilość funkcji. Jest on znany również z innego powodu - obecnie wykorzystuje się jego kod w systemie operacyjnym ReactOS będącym próbą napisania darmowego odpowiednika Windows.

Rozszerzeniem Wine jest pakiet "PlayOnLinux" ułatwiający proces instalacji aplikacji (udało mi się zainstalować Firefoxa 3.6.3, na liście jest np. Office 2007). Podobną rolę pełni  "wine-doors". Powstały też inne. Są one ukierunkowane na gry. Mówię tutaj o komercyjnych pakietach Cedega i CrossOver (trzeba je sobie oddzielnie pobrać ze strony ich producentów).

Z kolei darmowy DOSBox jest emulatorem ukierunkowanym na uruchamianie gier działających w DOS. Ponieważ mamy dostęp do wirtualnej maszyny Javy, nie jest problemem również wykorzystanie emulatora JPC w przeglądarce www...

Czasem nawet to nie jest możliwe (przykład: musimy czytać pliki CHM wymagające oryginalnego Internet Explorera). Mamy wtedy maszyny wirtualne. Wystarczy użyć np. chociażby VirtualBox i w nim uruchomić oryginalne okienka (na które oczywiście potrzebna będzie odpowiednia licencja)... Z mniej znanych - jest darmowe DOSEMU pozwalającą na pracę ze starszymi programami przeznaczonych do DOS (domyślnie uruchamia ono w niej najczęściej darmową wersję systemu DOS napisaną w ramach projektu FreeDOS i wprawdzie z Windows może sobie nie poradzi, ale ze starym oprogramowaniem PeCetowym nie powinno mieć problemu).

Ale uruchamianie to nie wszystko - z wyjątkiem najnowszego rozwiązania Microsoftu o nazwie exFAT (które nawiasem mówiąc w Windows XP i Viście wymaga doinstalowania dodatków) systemy GNU/Linux są w stanie obsłużyć z użyciem darmowych sterowników wszystkie systemy plików stworzone przez tę firmę. Nie ma problemu np. z odzyskiwaniem z nich skasowanych danych (można znaleźć chociażby odpowiedni opis na stronach związanych z dystrybucją Ubuntu). Podobnie można współdzielić pliki (rozwiązanie o nazwa Samba) albo odczytywać zawartość plików w formacie VHD (komenda "vdfuse"). Z ciekawostek: jeżeli mamy jeszcze jakieś stare dyskietki z czasów, gdy używaliśmy DOS (teraz raczej rzadkość :)) i nasz system będzie miał jakiekolwiek z nimi problemy, możemy wykorzystać pakiet Mtools. Dzięki nim np. do wyświetlenia zawartości wystarczy komenda "mdir" wydana obowiązkowo z konsoli :)

Do góry

Bezpieczeństwo

Systemy unixopodobne są kojarzone głównie z bezpieczeństwem. Od zawsze wymagane było tutaj chociażby logowanie.

Obecnie troszkę się to zmienia, a podejście do tego tematu jest inne w każdym systemie. W Ubuntu i Mint można ustawić, aby któryś z użytkowników był automatycznie logowany, zawartość pamięci flash pokazuje się od razu (nie trzeba używać komendy "mount"), sieć jest automatycznie włączana, powiększenie uprawnień wymaga natomiast użycia komendy "sudo". Pozwala to pogodzić bezpieczeństwo z wygodą użytkowania.

Na pewno nie należy się tutaj mocno obawiać złośliwych aplikacji przeznaczonych dla okienek Microsoftu, gdyż te najczęściej się nie uruchomią...

Mint ma zainstalowany domyślnie firewall (Gufw), mnie do gustu przydał bardziej inny ("firestarter"). Dodanie takiego oprogramowania i skonfigurowanie go jest o tyle ważne, iż opisywane systemy mają domyślnie włączony cały ruch sieciowy przychodzący i wychodzący, a wspomniane rozwiązania umożliwią łatwe ustawienia odpowiednich reguł (które np. pozwolą wyłącznie na wychodzącą transmisję protokołu http). Niestety nie zauważyłem tutaj możliwości kontroli ruchu na poziomie konkretnych aplikacji (jest to poniekąd związane z możliwościami jądra).

Trzeba zauważyć, iż nawet wtedy nie można zapominać o zwykłym elementarnym rozsądku ani ciągłym aktualizowaniu komponentów systemu (ale wyłącznie z oficjalnych repozytoriów !). Trzeba tu wyraźnie napisać, iż nawet wtedy trzeba pamiętać o jednym słabym ogniwie w każdej z tych dystrybucji (w Ubuntu o potencjalnym problemie ze sprawdzaniem uaktualnień, w Mincie zaś z weryfikowaniem podpisów cyfrowych).

Więcej możemy uzyskać np. uruchamiając przeglądarkę www i aplikacje korzystające z sieci w maszynach witualnych (pomysł ten został wykorzystany w opartym m.in. na dystrybucji Linuxa Fedora systemie Qubes znanej polskiej specjalistki od bezpieczeństwa Joanny Rutkowskiej, który obecnie jest w trakcie tworzenia).

Chciałbym tutaj również podać odnośnik do artykułu Dlaczego pingwiny żyją dłużej, czyli o atakach na Linuksa pracowników Kaspersky Lab Polska. Myślę bowiem, iż lepiej mówić o pewnych problemach niż je przemilczać.

Do góry

Plusy i minusy

Moim zdaniem dystrybucje GNU/Linux wprowadzają tak niezbędną konkurencję na rynku systemów operacyjnych. Coraz mniej czynności wymaga w nich doktoratu z informatyki i tak naprawdę w wielu wypadkach użytkownicy bywają do nich uprzedzeni głównie z uwagi na...nazwę ("skoro to Linux, to musi być coś trudnego").

Z tych i wielu innych względów najbardziej znanym i używanym systemem jest niewątpliwie Windows XP. "Wystarczająco dobry", wspierany przez lata, obecnie jest pewnym problemem dla Microsoftu, który stara się przekonać użytkowników do zakupu niekoniecznie lepszego Windows 7. Po prostu korporacja chce na czymś zarobić. Jest o co walczyć - kwota z każdej licencji pomnożona przez miliony kopii daje niezłą sumkę.

Dystrybucje Linuxa są w większości darmowe, nikt nie zmusza do niczego ich użytkowników. To oni wybierają to co lubią. I chociaż na rynku widać w dalszym ciągu dziesiątki dystrybucji (potwierdza to np. DistroWatch), "głównych" jest dosłownie kilka i praktycznie wszystkie mają obecnie wsparcie różnych firm. Mówiąc inaczej, wiele "gorszych" rozwiązań zostało już wyeliminowanych dawno temu. A że czasem coś nie od razu zadziała ? No cóż, gdyby wszyscy programiści tego oprogramowania mieli tyle funduszy, co Microsoft...

Siłą ale i słabością Windows jest zgodność. Kolejne wersje "okienek" potrzebują coraz więcej zasobów w celu jej zachowania, całość jest coraz bardziej skomplikowana (jak przyznał jeden z projektantów firmy Mark Russinovich nie rozumieją oni już nawet pewnych zależności między różnymi elementami). Jak to działa w praktyce, widać w przypadku tabletów i zapowiedzi kolejnych firm, iż rezygnują z łączenia z nimi Windows 7.

Dystrybucje Linuxa są często o wiele lepsze pod tym względem - zazwyczaj programy w nich instalowane są z pakietów zawierających odpowiednie informacje tego typu (dzięki temu wiadomo, iż A wymaga np. również bibliotek X, Y i Z). Nie trzeba również umieszczać wszystkiego na dysku "na wszelki wypadek".

Wiele programów dostępnych dla dystrybucji linuxowych ma publikowany również kod źródłowy. Może to powodować pewne zagrożenia (np. to, iż jakaś usterka zostanie zauważona przez "nieodpowiednich" ludzi), ale też zazwyczaj przyspiesza pojawianie się poprawek oraz uzupełnień (wszak mogą je robić wszyscy). Dostępność kodu przydaje się nie tylko programistom. Również "zwykli" użytkownicy mogą bowiem na tym zyskać - po zbudowaniu wersji binarnych aplikacji z uwzględnieniem np. specyfiki konkretnego procesora (np. czy jest to układ Intela czy AMD) może ona działać szybciej lub być mniejsza. Czasem takie budowanie oznacza wydanie np. jednej czy dwóch komend w konsoli, w niektórych dystrybucjach jest to robione wręcz "automatycznie" przy instalacji programów.

Nie chciałbym oczywiście tworzyć wrażenia, iż wszystko tutaj działa idealnie. Jest to oprogramowanie pisane przez ludzi i także zawiera błędy oraz niedoróbki. Jego mocną stroną jest fakt, że zazwyczaj dowiadujemy się o wielu z nich i są one poprawiane często szybciej niż w przypadku produktów pewnych znanych korporacji.

Jak wspomniałem wcześniej, również chociażby jądro monolityczne zawsze będzie sprawiać problemy. I tu wychodzi kolejna zaleta - wiele oprogramowania znanego z dystrybucji GNU/Linux działa również w innych systemach unixopodobnych i z uwagi na przenośność/dostępność kodu źródłowego na pewno zadziała w rozwiązaniach z lepszymi jądrami (nad którymi są prowadzone prace - o tym świadczy np. strona projektu Debian GNU/Hurd). 

Problemem dalej pozostaje brak wsparcia dla różnych rozwiązań własnościowych (np. systemów plików). Trzeba napisać tutaj wyraźnie, iż nie jest to wina twórców, ale bardziej różnych firm, które z uporem maniaka je wprowadzają.

Obie dystrybucje mimo wszystko są przykładem bardzo dobrego oprogramowania z tego gatunku. Czy któraś z nich jest więc dla Ciebie ?

Do góry

Podsumowanie

Porównałbym sytuację trochę do jazdy samochodzem z automatyczną skrzynią biegów. Tak działa Windows - spalanie jest wyższe, jest dużo części wewnątrz i dosyć często trzeba coś łatać. A skrzynia manualna ? Bardzo prosta, wystarczy trochę wiedzy i rozsądku (wszak nikt chyba nie próbuje włączyć pierwszego biegu przy 100 km/h ;)), aby jeździć dynamiczniej i z większą frajdą. I co z tego, że czasem jakiś bieg zazgrzyta ? Coś za coś ;)

Mówiąc inaczej: jeśli nie chcesz nic zmieniać i nie widzisz świata poza Windows, możesz sobie je darować. Po prostu zabraknie Ci szukania "sztuczek" w Rejestrze, jego defragmentacji, "hackowania" pliku ze stylami, itp.

Z kolei typowe potrzeby (Internet, poczta, komunikator, od czasu do czasu jakiś dokument, itp.) na pełno zostaną w pełni zaspokojone. Są tylko cztery warunki:

  • słowo Linux nie może doprowadzać Cię z automatu do choroby
  • musisz mieć w pogotowiu jakiegoś informatyka lub też informatyczkę i czasami możesz potrzebować kilka minut ich pracy (choć trzeba przyznać, iż sytuacja wygląda o niebo lepiej niż kilka lat temu i może to teraz być już bardzo rzadkie)
  • należy zapomnieć o niektórych aplikacjach znanych z Windows
  • konieczne jest zaakceptowanie pewnych unixowych standardów - np. to że system rozróżnia wielkość liter przy nazwach plików

Powiem więcej: jeśli teraz używasz Windows XP, to Ubuntu czy też Mint moim zdaniem sprawi Ci podobną ilość problemów z interfejsem jak Vista czy Windows 7.

Zachwycona będzie osoba posiadająca minimum średnio podstawową wiedzę techniczną (szczególnie jeśli nie ma zbyt dużej dawki wolnego czasu). Opcji jest naprawdę dużo...system nadaje się też świetnie do zainstalowania w maszynie wirtualnej i wykorzystywania do różnych "dziwnych" celów :)

Uniksowi puryści niewątpliwie skierują swoje kroki w stronę innych dystrybucji... Wszak kto to słyszał, żeby CD-ROM się sam montował...

A która jest lepsza ? Jedni wolą jabłka, jedni gruszki. Jednym wystarcza samochód z fabryki, inni wolą ten sam samochód poddać pewnemu tuningowi (np. zwiększyć moc w określonym przedziale obrotów, ale stracić niskie spalanie). Moim zdaniem ten wybór to głównie kwestia gustu...

Do góry

Plain text

  • No HTML tags allowed.
  • Web page addresses and e-mail addresses turn into links automatically.
  • Lines and paragraphs break automatically.
CAPTCHA
This question is for testing whether or not you are a human visitor and to prevent automated spam submissions.
Image CAPTCHA
Enter the characters shown in the image.