Quo vadis Komputerze …- 2. "Powrót do przyszłości" 14


Okładka Atari Magazyn

Atari Magazyn

Nasz wczorajszy artykuł nie wzbudził takich emocji na jakie liczyliśmy, nawet superhipernagroda nie spowodowała lawiny komentarzy. A szkoda.
Jest to bowiem felieton niezwykły.
Artykuł jest, oczywiście, prima aprilisowym żartem, ale żartem szczególnym: jest bowiem w całości autentyczny, tylko, że został napisany blisko …. 20 lat temu. Prawdziwym autorem felietonu jest Piotr Karkuciński, a ukazał się on w wyjątkowo wtedy popularnym dwumiesięczniku Atari Magazyn.

Postanowiliśmy przypomnieć go Wam z kilku powodów:

  • choć napisany w czasach, kiedy komputer był dla zdecydowanej większości ludzi niedościgłym marzeniem, nadal nie stracił wiele ze swojej aktualności,
  • autor w sposób wyjątkowo trafny przewidział wiele z tego co zdarzyło się w ciągu ostatnich blisko dwudziestu lat w technologiach informatycznych,
  • jest i powód trzeci: „Nihil novi sub sole”. To co obecnie przedstawiane jest jako wyjątkowo nowoczesne, odkrywcze i będące wynikiem przebłysku geniusza, było znane już wiele lat temu. Owszem, możliwości techniczne nie pozwalały na wyprodukowanie choćby dotykowego tabletu o używalnych rozmiarach, praktycznie nie istniała sieć wymiany danych (Internet), Windows dopiero zdobywał rynek, a Linux był „używany” wyłącznie przez profesjonalnych pasjonatów („używany” – bo nie miał jeszcze kompletnie jakiejkolwiek użyteczności, a pierwsze dające się w ogóle zainstalować dystrybucje Slackware i Debian zostały wydane mniej więcej w tym samym czasie jak interesujący nas artykuł Piotra Karkucińskiego), ale pomysły już istniały, już nad nimi pracowano, już powstawały nowe, często wtedy uznawane za całkowicie fantastyczne, projekty rozwoju.
  • i powód ostatni, ale nie najmniej ważny: niezwykle rzadko, w szybko zmieniającym się świecie komputerów i systemów operacyjnych, mamy okazję poznać ich historię. A przede wszystkim ludzi, którzy tę historię tworzyli

Powrót do przyszłości

Udało nam się odnaleźć autora felietonu. Jest, żyje i nadal pozostaje aktywnym uczestnikiem komputerowego mainstreamu.
Zdecydowana większość użytkowników i czytelników naszego portalu w czasach kiedy był pisany ten felieton nie umiała pewnie nawet wymówić słowa komputer (o ile w ogóle była już na świecie :D).
I dlatego mamy dla Was żywy, autentyczny i dobrze się mający „głos z (Waszej) komputerowej prehistorii”.

Sylwester: Witam serdecznie w imieniu użytkowników Ubuntu. Zacznę nieco od środka, ale dla mnie (i pewnie dla wielu czytelników naszej strony) jest to najbardziej nurtujący problem z Twojego felietonu: jaką moc ma jeden Silicon?
Piotr:

Odpowiedź muszę zacząć od retorycznego pytania – Jakże się czasy zmieniły, 20 lat temu każdy zainteresowany wiedział co znaczy słowo Silicon. Silicon to skrót nazwy od komputerów Silicon Graphics firmy SGI (zbankrutowała w 2009 r.). W tamtych czasach były to potężne stacje robocze, niedostępne dla przeciętnego użytkownika.

Sylwester: Będę drążył temat. Dla obecnych użytkowników porównanie „potężnej stacji roboczej” sprzed dwóch dekad z obecnymi możliwościami komputerów może być wyjątkowo zaskakujące i ciekawe. Ile więc „Siliconów” ma np. Twój telefon?
Piotr:

Zgodnie z prawem Moore co 1,5 roku podwaja się gęstość upakowania układów scalonych, można to przełożyć na dwukrotne zwiększenie mocy obliczeniowej. Przez 20 lat moc komputerów zwiększyła się ponad osiem tysięcy razy. Dziś telefony mają większą moc obliczeniową niż 20 lat temu stacje robocze. Przy prostym przeliczeniu telefon jest obecnie z 20 – 30 razy szybszy niż ówczesne silne stacje robocze. A były to maszyny wyjątkowo nowoczesne jak na owe czasy: oparte na procesorze R4000, pierwszym w historii procesorze 64 bitowym, taktowanym w zależności od wersji od 100 do 250MHz. (Atari XE miało zegar 1,79MHz, Atari ST 8Mhz, PC AT 12 lub 16MHz). Zwykle maszyny klasy Silicon były podłączane do zewnętrznych macierzy, czasami o pojemnościach 1TB (przeciętny dysk twardy miał wtedy od 40 do 120MB). Pamięć RAM też mocno zależała od konfiguracji, było to od 16 do 256MB. (Atari 65XE 64KB, Atari ST od 256KB do 4MB, PC AT 4MB). Stacje robocze Silicon Graphics służyły do renderowania scen w takich filmach jak Terminator 2, Kosiarz Umysłów. Były to w owym czasie podstawowe komputery do generacji zaawansowanych efektów graficznych.

Sylwester: Przejdźmy więc do tego od czego powinniśmy zacząć. Czy możesz przedstawić się naszym czytelnikom? Kim jesteś? Co robisz obecnie?
Piotr:

Nie odszedłem daleko od swoich ówczesnych zainteresowań. Obecnie pracuję jako administrator sieci i systemów pocztowych. Pracowałem czasem jako dziennikarz, czasem jako informatyk. Ale od dłuższego czasu nie zajmuję się czynnie dziennikarstwem. W wolnych chwilach bawię się w fotografię.

Sylwester: Masz komórkę bardziej wydajną niż ówczesny, niedościgły, profesjonalny komputer graficzny. A co więcej masz w domu? I, oczywiście, z jakich metod wprowadzania danych korzystasz?

Piotr:

Jakieś stacje robocze, jakiś notebook, jakiś netbook, mam też działające Atari STE 1040 i Atari XE. Zebrało się tego przez lata. A wprowadzanie danych? 85% to klawiatura, 10% myszka, pozostałe 5% to ekran dotykowy w telefonie i touchpad w netbooku.

Sylwester: Czy korzystasz jeszcze z komputera ośmiobitowego?
Piotr:

Tak. Nie wiem czy z jednego, bo procesory 8 bitowe mogą być gdzieś wbudowane w jakieś urządzenia domowe.

Sylwester: Jak wyobrażasz sobie komputer w roku 2030?
Piotr:

Wbrew pozorom dziś sięganie 10 lat do przodu jest trudniejsze niż kiedyś 20 lat do przodu, trzeba przewidzieć np czy Majowie się mylili co do roku 2012, jeśli nie, to może za kilka lat będziemy liczyli robiąc nacięcia na kościach renifera. Szczególnie trudne jest przewidywanie w dziedzinach nazywanych szumnie nowymi technologiami. Kiedyś o rozwoju komputerów decydowali głównie inżynierowie, dziś decydują działy marketingu. Trudno przewidzieć co przyjdzie do głowy marketingowcom. Na pewno nie zniknie klawiatura, okazała się najwygodniejszym sposobem wprowadzania danych do komputera. W zastosowaniach profesjonalnych będzie nadal używana. Za to nie zdziwię się jak znikną ekrany dotykowe. Jest to ślepa uliczka, w tej chwili jest to wygodne narzędzie w smartphonach czy w tabletach, ale zostanie wyparte przez kamery śledzące ruch lub przez czujniki pojemnościowe, ale bezdotykowe. Olbrzymią wadą klawiatur dotykowych jest nasza fizjologia, zostawiamy ślady na ekranie. Przy małych ekranach telefonów jest to do zaakceptowania, ale na dużym monitorze gdzie robimy inne rzeczy przeszkadza. Powoli pojawią się systemy trójwymiarowe, ale nie będzie to rewolucja, raczej powolna ewolucja. Technologia wymaga dopracowania, a dodatkowo nasz mózg nie za bardzo lubi się ze sztucznym obrazem 3D. Co do samych komputerów będzie ich coraz więcej w naszym otoczeniu i będą coraz bardziej ukryte. Nie należy spodziewać się jakiejś rewolucji i to z kilku powodów. Po pierwsze firmy dozują nowości, po co sprzedać urządzenie z dwiema nowościami, jak można sprzedać najpierw z jedną, a potem z dwiema? Oczywiście trzeba dać trochę czasu użytkownikowi na uzbieranie pieniędzy na kolejną nowość. Nastąpi też silniejsza specjalizacja komputerów, do pracy notebook lub stacja robocza, w zależności do zapotrzebowania na moc obliczeniową, na plażę jakiś tablet, do pracy w terenie netbook lub subnotebook. Zawsze pod ręką telefon, który stał się już komputerem z opcją telefonowania. Czekam też, może ktoś wprowadzi w życie mój pomysł sprzed lat. Osobisty asystent – telefon, wkładamy go do stacji dokującej w notebooku i korzystamy z tego samego zestawu danych i aplikacji, w domu czy w pracy wsuwamy w obudowę stacjonarną. Odpada problem z synchronizacją danych, ze zmianami środowiska. Mamy jedno serce systemu, które obudowujemy peryferiami wg potrzeby. Zaczną też znikać kable. Powoli przejdziemy na komunikację bezprzewodową pomiędzy poszczególnymi urządzeniami, oczywiście coś za coś, będziemy jak w środku kuchenki mikrofalowej. Internet będzie towarzyszył nam wszędzie. Będzie to życie w środowisku totalnej informacji, pytanie czy będziemy mogli się obronić przed zalewem niechcianej informacji, bo każda firma będzie chciała nas poinformować o swoich produktach. Więc w przerwach na reklamę może znajdziemy potrzebną nam informację. Możliwym jest scenariusz, że sprzęt będzie za darmo, ale będziemy płacić za korzystanie z aplikacji. Za 10 minut skorzystania z kalkulatora 10 groszy. Za 20 minut gry w sapera 25 groszy.

Sylwester: Z Twoich wypowiedzi wynika, że romantyczny czas komputerów odszedł bezpowrotnie, a została wyłącznie komercja i marketing. Ale czy to źle? W tym samym numerze „Atari Magazyn”, z którego pochodzi felieton, jest list czytelnika do Redakcji, który zaczyna się mniej więcej tak: „Mam komputer Atari XE od pięciu lat i po okresie zabawy postanowiłem zająć się użytkowaniem bardziej profesjonalnym….”. W dzisiejszym świecie już sam fakt posiadania tego samego komputera 5 lat wydaje się zdumiewający. Komputery są używane powszechnie, do wszystkiego, a zmiany następują niemal z dnia na dzień. Komputer stał się banalnym narzędziem (co przewidziałeś 20 lat temu). Ludzie dostają to czego potrzebują.
Piotr:

20 lat temu z komputerów jako takich, nie liczę sterowników wbudowanych w różne urządzenia, korzystało grono specjalistów i zapaleńcy. Dziś komputer jest takim samym sprzętem jak telewizor czy radioodbiornik. Każdy w zasadzie z tego korzysta. To całkiem normalny proces, najpierw korzystają nieliczni, potem następuje fala popularyzacji, a na końcu fala specjalizacji. Dotyczy to zarówno komputerów, jak i mediów drukowanych, a też samochodów. Komputery wchodzą właśnie w okres specjalizacji. Coraz więcej urządzeń do coraz bardziej wąskich zastosowań. Na to nakłada się agresywny marketing. Samo posiadanie przez kilka lat komputera nie było niczym dziwnym, raz, że nowe generacje sprzętu nie wychodziły tak często, a po drugie szczególnie w Polsce istniała silna bariera finansowa. Ok. 1988 roku komputer ze stacją dysków kosztował w Polsce półroczną średnią pensję. Dziś też pogoń za mocą procesora też się skończyła dla wielu osób. Do przeglądania stron, pisania, obejrzenia zdjęć nie potrzebny jest najsilniejszy komputer na rynku. W zastosowaniach domowych gry są powodem ciągłych ulepszeń. Na komputerze sprzed 10 lat można spokojnie pracować, o ile nie są to jakieś zaawansowane programy graficzne, inżynierskie.

Sylwester: Wspomniałeś o firmie Silicon Graphics. Z punktu widzenia czytelników i użytkowników naszego portalu ma ona dość istotne znaczenie (choć pewnie mało kto o tym wie): jest bowiem posiadaczem prawnym znaku i logo openGL, który powstał jako rozwinięcie biblioteki graficznej IrisGL, używanej w „Siliconach”. Jest to obecnie jedyny konkurent własnościowego DirectX.
I tak zgrabnie przeszliśmy do tematyki naszego portalu 🙂 Czy masz jakieś związki z Linuksem? Pracujesz na nim? Używasz?

Piotr:

Pracując jako administrator sieci, administrator serwerów pocztowych korzystam cały czas. Pierwszy raz zainstalowałem Linuksa kilkanaście lat temu. Linux to dla mnie codzienność, a czasami conocność.

Sylwester: W swoich wypowiedziach sprzed dwudziestu lat skupiłeś się na ewolucji hardware’u. Powyżej opisałeś stan obecny i bliską przyszłość sieci i wzrastającego szumu informacyjnego. Ale nadal podstawą działania komputerów są systemy operacyjne. W czasach kiedy pisałeś felieton nie było jeszcze takiej dominacji. Obecnie Windows na komputerach roboczych panuje powszechnie, OSX pozostaje elitarnym ze względu na politykę producenta (nie wolno go instalować na komputerach innych niż Apple), Linux opanował superkomputery, wspomniane przez Ciebie telewizory i mikrofalówki, dominuje już też na rynku komórek. Jak widzisz przyszłość tych systemów operacyjnych?
Piotr:

Tendencja jest stała, coraz bardziej ukryć system operacyjny przed użytkownikiem. Więc za 10 lat wiele osób nie będzie odbierać obsługi komputera jako obsługi komputera. Po prostu będą wykonywać konkretne zadania. Nie jest to nowe podejście. Nie pamiętam modelu, ale jeden z Amstradów był w zasadzie maszyną do pisania. Użytkownicy korzystali z niego jak z maszyny do pisania, całość była zrobiona tak, żeby dotrzeć do przeciętnej osoby, która potrafi pisać na klawiaturze i nic więcej. Przeciętnego użytkownika nie interesuje jaki program odtwarza muzykę i w jakim formacie jest muzyka. Tutaj też widzę dalszą ewolucję niż rewolucję. Interfejs systemu operacyjnego musi być dopasowany do urządzeń wprowadzających. Więc unifikacja interfejsów jest mało możliwa w tak krótkim czasie. Wbrew pozorom przez ostatnie 20 lat nie tak wiele się zmieniło w obsłudze. Całkiem rewolucyjne pomysły zostały wyeliminowane. Jest powolna ewolucja. Rewolucją było przejście na sterowanie myszą, użytkownik nie musiał pamiętać już tych wszystkich straszliwych komend, mógł sobie wszystko wyklikać, co nie znaczy, że to była szybsza metoda. A potem było tylko lekkie zmienianie interfejsu, nic przełomowego. To od strony użytkownika, sama architektura wewnętrzna systemów też nie będzie się dramatycznie zmieniać. Zwiększy się tylko nacisk na wykorzystanie wielu rdzeni w procesorach. Procesory mają coraz więcej rdzeni i wbrew pozorom trudno jest to sensownie wykorzystać.

Sylwester: Czy roli „osobistego asystenta” nie przejmie coraz modniejsza technologia „cloud computing”? Już obecnie można słuchać muzyki, edytować dokumenty z dowolnego miejsca na świecie, a jeśli wpiszę do swojej komórki nowy numer telefonu, czy adres e-mail, po włączeniu komputera on już tam jest. I płacenie za czas używania aplikacji (czy systemu) powoli staje się faktem.
Piotr:

Popularność „cloud computing” będzie w dużej mierze zależała od tego jak bardzo ludzie będą chcieli chronić swoje dane. Przetwarzanie w chmurze oznacza, że tracimy kontrolę nad swoimi danymi. Dla firm oferujących takie usługi jest to wygodne, ale czy dla nas użytkowników też? Obecnie jest silny nacisk na ograniczenie prywatności obywateli, w co doskonale się wpisuje przetwarzanie w chmurze, ale zawsze tak silny nacisk powoduje w pewnym momencie ruch w drugą stronę.

Sylwester: Cóż, już każdy może mieć swoją prywatną „chmurę”, choć technicznie, dla nie-specjalisty, jest to jeszcze skomplikowane. Za chwilę pojawią się pewnie jakieś automagiczne konfiguratory, potem metody wykradania danych z prywatnych „chmur”, potem metody ich ochrony i …. historia zatoczy kolejny krąg.
Dziękuję za rozmowę i …. do zobaczenia w roku 2030!

PS. And the winner is ….. PL_kolek! Komputer z automatycznym podajnikiem jaj wydaje się wyjątkowo dobrym (i zdrowym) pomysłem. Poproszę o adres do wysyłki naszej superhipernagrody 🙂 (koniecznie z maila podanego w komentarzu).


Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Witryna wykorzystuje Akismet, aby ograniczyć spam. Dowiedz się więcej jak przetwarzane są dane komentarzy.

14 komentarzy do “Quo vadis Komputerze …- 2. "Powrót do przyszłości"

  • Olbi

    A ja bym prosił Pana Piotra o odpowiedź na takie pytanie:
    Czy gdyby komputer K202 wszedł do masowej produkcji, jako pierwszy komputer 16 bitowy, to jakby teraz wyglądało to wszystko? Czy nadal ludzie wspominaliby Amiga, Atari i 4 bitowe procesory Intela? Czy mówili by o Polsce, jako Dolinie Krzemowej 🙂

  • sylwester Autor wpisu

    [quote comment=”48616″]Ciekawe gdyby zamiast IBM-PC skupiono się na komputerach typu Amiga, czy Atari ST…[/quote]

    Komputery typu IBM-PC są chyba pierwszym, a na pewno jednym z największych (jesli nie największym) dowodem na sukces „otwartych źródeł”.
    I Amiga, i Atari, i Apple zastrzegły wzory swoich architektur sprzętowych, oprogramowania, opatentowały co się dało. Apple przetrwało (choć w latach 90 tak naprawdę było bankrutem i dopiero geniusz handlowy Jobsa postawił firmę na nogi). Reszta firm nie miała Jobsa i pozostały po nich tylko wspomnienia.

    A co zrobił IBM? po prostu opublikował pełną specyfikację swoich maszyn i każdy mógł budować takie same. Stąd powstało określenie „klony”, „składaki”, czy „typu IBM-PC”.
    A skoro każdy mógł budowac „IBM-PC” powstała olbrzymia konkurencja, co w połączeniu ze skalą produkcji pozwoliło na szybkie obniżanie kosztów.
    W dodatku pojawił sie Windows, który instalował się na tych wszystkich klonach i …. lawina ruszyła.

    Nie można się było skupić na Atari czy Amidze bo …. nie pozwalali na to ich właściciele. I przegrali.

  • truten23

    Jednak teraz obserwować można dalsze zastrzeganie swoich praw do nowych patentów. Nie żebym był przeciwny, jednak myślę że skutkować to może powstawaniem „gałęzi ewolucji” urządzeń. A o tym, czy dany produkt przetrwa i wyewouluje z niego nowy, będzie decydować marketing, a nie to czy rzeczywiście jest on lepszy od konkurencyjnych…

    Pozdrawiam Krzysztof.

  • sylwester Autor wpisu

    [quote comment=”48628″]Jednak teraz obserwować można dalsze zastrzeganie swoich praw do nowych patentów. [/quote]

    Można i nie można.
    Każda firma ma własną strategię i ma do niej prawo – czy jej to wyjdzie na zdrowie? Zobaczymy.
    Jednak widać, że tam gdzie stawia sie na produkt masowy strategia zamknięcia wszystkiego się po prostu nie sprawdza.
    Apple stawia na ekskluzywność – każdy klient tej firmy ma sie czuć wyjątkowo i tak sie pewnie czuje: wydając mnóstwo pieniędzy na ŁADNE rzeczy. Apple przy okazji robi to co opisał Piotr: nie produkuje superwypasionych urządzeń (choć technicznie jest do tego gotowe), ale co kilka, kilkanaście miesięcy dodaje kolejną (nie oszukujmy się: banalną) funkcjonalność i robi na tym kasę.

    Prawdziwa walka rozgrywa się obecnie na rynku mobilnym. Ilość komórek już dawno przekroczyła ilość komputerów, a kasa jaką można na tym rynku zarobić jest coraz większa i budzi pożądanie wszystkich.

    I co mamy? Apple – patrz wyżej, Blackberry – skupił się na klientach biznesowych i ma sie dobrze, znakomita większość pozostałych producentów stawia na Androida, który po zaledwie dwóch latach jest niekwestionowanym liderem. A Nokia? A Nokia zbyt późno otworzyła Symbiana i rozpaczliwie próbuje ratować się Windowsem Phone. Jednak zestawienie dwóch zamkniętych architektur (sprzętowej i programowej) przy celu jakim jest masowy klient z góry (moim zdaniem) skazuje ten projekt na porażkę.

    Rynek działa więc zawsze, ludzie nie są głupkami, choć mają różne potrzeby.
    Dlaczego przecudnej urody Iphone poniósł spektakularną klęskę w Japonii? Bo Japończycy zamiast telefonów ładnych używają telefonów paskudnych, ale wszystkomających. Dlaczego Nokia przegrywa z HTC, Samsungiem czy LG? Bo jeśli mamy wydać porównywalną ilość kasy to kupimy „terminal”, z którym będziemy mogli zrobić co zechcemy, a nie tylko co zechce producent. Bo Android idzie obecnie drogą jaką 20 lat temu szedł Windows: choć formalnie własnościowy i zamknięty to przez łatwość nieautoryzowanego kopiowania szerzący się jak pożar na prerii. Obecnie każdy mały i duży producent telefonów ma gotowy, działający system operacyjny, który w dodatku może przerobić jak zechce, a jak nie zechce to daje zarobić Googlowi, który ten system rozwija, dając zarabiać producentom …. I znowu pojawia sie efekt skali….

    Jak widać więc ta walka trwa nadal i pisanie, że marketing jest w stanie sprzedać każde g…. zawinięte w efektowny, błyszczący papierek nie do końca jest prawdą.

  • mc68000

    [quote post=”13913″]Na komputerze sprzed 10 lat można spokojnie pracować, o ile nie są to jakieś zaawansowane programy graficzne, inżynierskie.[/quote]
    Podziwiam faceta za autentyczną intuicję, ale z tym stwierdzeniem pozwolę sobie nie zgodzić się. No chyba, że pan Piotr ma na myśli używanie również softu sprzed 10 lat 🙂 co niestety nie zawsze jest możliwe. Nowe oprogramowanie po prostu ZMUSZA nas do kupowania nowego sprzętu, ręce opadają…

  • DKnoto

    >> Podziwiam faceta za autentyczną intuicję, ale z tym stwierdzeniem pozwolę
    >> sobie nie zgodzić się. No chyba, że pan Piotr ma na myśli używanie również
    >> softu sprzed 10 lat 🙂

    Używam maszynę z przełomu wieku, konstrukcja z 1998 a wykonanie z 2001, cztery procesory 833 MHz, 32 GB RAM, dysk SSD i dobra grafika (Radeon HD) z monitorem 24″ 1920×1200. Odpalam na tym najnowszą dystrybucję Gentoo i nie narzekam 🙂

    Dodam, że nie jest to Intel, ten sprzęt jest wydajniejszy od dwurdzeniowego Xeon’a 2.8 GHz 🙂

  • qiixx

    Nie chciał bym się spotkać z osobami które tworzyły na tych komputerach „Terminatora” albo „kosiarza umysłów” bo bym przegrał w zawodach na cierpliwość 😀 czyli „kto komu dłużej będzie patrzył w oczy”
    no chyba ze kolesie oślepli xD

    (oczywiście macie świadomość ze jest to głupi uszczypliwy żart) 😛

  • Rem

    [quote comment=”48607″]generacja – rzeczownik
    generowanie – czasownik

    czujecie tę subtelną różnicę……?[/quote]

    @Szatan667
    Jeżeli już, to:
    generacja – rzeczownik,
    generowanie – też rzeczownik (odczasownikowy). Nazwy czynności są rzeczownikami, mój ty orle. Inne przykłady RZECZOWNIKÓW, to np. pisanie, czytanie, śpiewanie. Śpiewać – czasownik. Śpiewanie – rzeczownik.

    A teraz – wstydź się.