Obserwatorzy

poniedziałek, 12 marca 2012

Internet - Wielkim Źródłem Wiedzy


Internet (skrótowiec od ang. inter-network, dosłownie "między-sieć") – ogólnoświatowa sieć komputerowa, określana również jako sieć sieci. W sensie logicznym, Internet to przestrzeń adresowa zrealizowana przy wykorzystaniu protokołu komunikacyjnego IP, działająca w oparciu o specjalistyczny sprzęt sieciowy oraz istniejącą już infrastrukturę telekomunikacyjną.

Historia

Początki Internetu wiążą się z powstaniem sieci rozległej ARPANET i sięgają końca lat 60. XX wieku, gdy amerykańska organizacja badawcza RAND Corporation prowadziła badania studyjne nad możliwościami dowodzenia w warunkach wojny nuklearnej. Na podstawie uzyskanych raportów podjęto prace projektowe nad skonstruowaniem sieci komputerowej mogącej funkcjonować mimo jej częściowego zniszczenia.


Terminologia

Internet a WWW

Internet w ogólnym znaczeniu to sieć komputerowa, czyli wiele połączonych ze sobą komputerów, zwanych również hostami, natomiast WWW to usługa internetowa. Innymi, znanymi usługami tego rodzaju są: poczta elektroniczna oraz P2P.

Rozróżnienie pomiędzy siecią a usługami odwołuje się do pojęcia protokołów internetowych, będących określonym zbiorem protokołów komunikacyjnych. Każdy protokół komunikacyjny jest logicznie podzielony na tzw. warstwy: warstwa niższa zapewnia funkcjonalność wymaganą przez najbliższą warstwę wyższą, dodając jednocześnie własne dane pomocnicze i kontrolne. Internet to sieć komputerowa wykorzystująca protokół IP (ang. Internet Protocol). Natomiast usługa WWW wykorzystuje protokół HTTP (ang. Hypertext Transfer Protocol), działający w warstwie wyższej, dla której nośną jest warstwa protokołu IP. Protokół HTTP określany jest też mianem "protokołu warstwy aplikacji" z tego względu, że stanowi on warstwę nośną dla danych tworzonych przez oprogramowanie użytkowe, zwane aplikacjami.

Pisownia

Słowo "Internet" pisze się wielką literą mając na myśli konkretną, globalną sieć komputerową – jest to wtedy nazwa własna. W niektórych przypadkach poprawna jest jednak pisownia małą literą – gdy pisze się o Internecie jako nośniku (medium) informacyjnym, np. "przeczytałem to w internecie" lub używając skrótu myślowego w odniesieniu do fizycznego łącza telekomunikacyjnego, np. "internet mobilny", "internet przewodowy", "internet ADSL". Czasami używa się też słowa "internet" pisanego małą literą w odniesieniu do pojęcia ekstranet (połączona ze sobą grupa sieci komputerowych).


Internet w Polsce

Pierwsze internetowe łącze analogowe zostało uruchomione 26 września 1990 r. i miało ono prędkość 9600 bit/sek.[4] Pierwsza transmisja internetowa w Polsce miała miejsce w listopadzie 1990 roku jest i związana z osobą dr Grzegorza Poloka z Instytutu Fizyki Jądrowej (IFJ) PAN w Krakowie, który ściśle współpracował z CERN (Międzynarodowy Ośrodek Badań Jądrowych) w Genewie. Internet w Polsce dostępny jest oficjalnie od 20 grudnia 1991 roku.

30 kwietnia 1991 w Centrum Komputerowym Uniwersytetu Kopenhaskiego, zarejestrowano krajową domenę najwyższego poziomu ".pl".

17 sierpnia 1991 z Wydziału Fizyki Uniwersytetu Warszawskiego zestawiono pierwsze, trwające 1 minutę, połączenie internetowe przy wykorzystaniu protokołu TCP/IP, z Centrum Komputerowym Uniwersytetu w Kopenhadze.

20 grudnia 1991 placówki naukowe Uniwersytetu Warszawskiego, Instytut Fizyki Jądrowej i Obserwatorium Astronomiczne oraz pojedyncze komputery w Krakowie, Toruniu i Katowicach zostały podłączone do Internetu. Tego samego dnia Stany Zjednoczone zniosły ograniczenia w łączności z Polską.

W czerwcu 1991 została uruchomiona sieć szkieletowa POLPAK Telekomunikacji Polskiej. W roku 1992, jako pierwsza polska firma, ATM S.A. uzyskała dostęp do Internetu. W sierpniu 1993 roku powstał pierwszy polski serwer WWW, pod nazwą "Polska Strona Domowa". W 1994 roku powstał rządowy serwer WWW. W 1995 roku powstał pierwszy polski portal internetowy Wirtualna Polska. W kwietniu 1996 roku TP S.A. uruchomiła dostęp anonimowy do Internetu z wykorzystaniem modemów.


Bezpłatny dostęp do Internetu

Jako pierwsza w Polsce, zainwestowała w tzw. "darmowy internet", podkarpacka gmina Czudec (zasięg 70 procent powierzchni gminy) i urząd miasta Rzeszowa (zasięg 60 procent), który dodatkowo stara się o środki z funduszów unijnych na zwiększenie dostępności "darmowego internetu" m.in. budowę sieci WiMAX, by wszyscy mieszkańcy miasta mogli z niego korzystać. Aby oferta operatorów dostarczających internet abonamentowy była nadal atrakcyjna, "darmowy internet" ma mieć obniżone parametry (np. ograniczenia czasowe w dostępie, szybkość przesyłania danych obniżona nawet czterokrotnie).

Dysk Twardy

Dysk twardy - napęd dysku twardego (ang. hard disk drive) – rodzaj pamięci masowej, wykorzystujący nośnik magnetyczny do przechowywania danych. Nazwa "dysk twardy" wynika z zastosowania twardego materiału jako podłoża dla właściwego nośnika, w odróżnieniu od dyskietek (ang. floppy disk, czyli miękki dysk), w których nośnik magnetyczny naniesiono na podłoże elastyczne.

<--- Dysk twardy 3,5" (po lewej) i 2,5" (po prawej)

Pierwowzorem twardego dysku jest pamięć bębnowa. Pierwsze dyski twarde takie, jak dzisiaj znamy, wyprodukowała w 1980 roku firma Seagate – był przeznaczony do mikrokomputerów, miał pojemność 5 MB, czyli 5 razy więcej niż ówczesna, dwustronna dyskietka 8-calowa.

Pojemność dysków wynosi od 5 MB (przez 10MB, 20MB i 40MB – dyski MFM w komputerach klasy XT 808x i 286) do 3 TB[1] (w laptopach 20-1000 GB). Opracowano również miniaturowe dyski twarde typu Microdrive, o pojemnościach od kilkuset MB do kilku GB, przeznaczone dla cyfrowych aparatów fotograficznych i innych urządzeń przenośnych.

Dla dysków twardych najważniejsze są następujące parametry: pojemność, szybkość transmisji danych, czas dostępu do danych, prędkość obrotowa dysków magnetycznych (obr/min.) oraz średni czas bezawaryjnej pracy (MTBF).

Kilka dysków twardych można łączyć w macierz dyskową, dzięki czemu można zwiększyć niezawodność przechowywania danych, dostępną przestrzeń na dane, zwiększyć szybkość odczytu/zapisu.

Historia

Użycie sztywnych talerzy i uszczelnienie jednostki umożliwia większą precyzję zapisu niż na dyskietce, w wyniku czego dysk twardy może zgromadzić o wiele więcej danych niż dyskietka. Ma również krótszy czas dostępu do danych i w efekcie szybszy transfer.
4 września 1956 firma IBM skonstruowała pierwszy 24-calowy dysk twardy o nazwie RAMAC 350. Miał on pojemność 5 MB.
W 1983 pojawiły się komputery IBM PC/XT z dyskami 5 i 10 MB
W 1984 firma Seagate wypuściła na rynek pierwszy dysk 5.25", ST-506 o pojemności 5 MB.
W 1986 został opracowany kontroler IDE (Integrated Drive Electronics).
W 1987 rozpoczęła się era dysków 3.5 cala
W 2003 dysk twardy w typowym stanowisku pracy mógł zgromadzić od 60 do 500 GB danych, obracać się z prędkością 5400 do 10 000 obrotów na minutę (taka prędkość obrotowa jest możliwa dzięki zastosowaniu łożyskowania FDB). W wydajnych serwerach i HI-Endowych stacjach roboczych stosowane były dyski SCSI o prędkościach obrotowych na poziomie 15.000 obrotów na minutę.
W 2006 dzięki technologii zapisu prostopadłego możliwe jest przetrzymywanie na dysku ponad 1 TB danych. Standardem staje się złącze SATA i SAS oraz technologia optymalizacji odczytu NCQ. Stacje dyskietek zaczęły przegrywać z pamięciami USB do których złącza montuje się z przodu obudowy.
W 2008 pojawiły się dyski SSD. Na początku technologia ta była bagatelizowana przez dużych graczy (np. Western Digital). Jednak stosunkowo duże zainteresowanie rynku mimo bardzo wysokiej ceny, duża wydajność dzięki minimalnemu czasowi dostępu do danych oraz malejąca cena za MB szybko zmieniła ich nastawienie.
Na początku 2009 wyprodukowane zostały dyski o pojemność 2 TB. Pojawiły się wersje dysków Green, czyli ekologicznych o dynamicznej zmianie prędkości obrotowych. Rozwijany jest standard SATA 3 na potrzeby dysków SSD.
W październiku 2010 Western Digital wyprodukowała dysk twardy Caviar Green o pojemności 3 TB

Urządzenia - Wejścia/Wyjścia

Urządzenie wejścia-wyjścia, urządzenie we/wy, urządzenie I/O (ang. input/output device) służy do komunikacji systemu przetwarzania danych (np. komputera) ze światem zewnętrznym – użytkownikiem, urządzeniem lub innym systemem przetwarzania danych. Urządzenie wejścia-wyjścia służy często do zamiany wielkości fizycznych na dane przetwarzane przez system lub odwrotnie. Np. mysz komputerowa przetwarza ruch ręki, odbiornik GPS aktualne położenie geograficzne, a Monitor komputera przetwarza dane komputerowe na obraz.

Dane wejściowe to te, które są przekazywane do systemu. Dane wyjściowe to te, które z systemu są wysyłane. Niektóre z urządzeń są typowymi urządzeniami wejścia, inne wyjścia, pozostałe natomiast jednocześnie wejścia i wyjścia.
typowe urządzenia wejścia to np.: klawiatura, mysz komputerowa, skaner, dżojstik, mikrofon. Mniej typowe to: odbiornik GPS, czytnik linii papilarnych, kamera internetowa.
typowe urządzenia wyjścia to np.: monitor, drukarka, głośniki, słuchawki. Mniej typowe: kontrolki stanu urządzenia, brzęczyk.
typowe urządzenia wejścia i wyjścia to np.: karta sieciowa, modem, ekran dotykowy, moduł Bluetooth, moduł IrDA, złącze USB oraz wszelkie inne nośniki danych z możliwością zapisu i odczytu.

Część urządzeń wejścia-wyjścia znajduje się wewnątrz obudowy systemu (np. jednostki centralnej komputera), często nawet bezpośrednio na płycie głównej. Natomiast te urządzenia wejścia-wyjścia, które są dołączone do systemu za pomocą przewodów lub komunikują się w inny sposób (np. za pomocą fali radiowych lub podczerwieni), zwane są urządzeniami peryferyjnymi.

Interfejs

Wszystkie urządzenia wejścia-wyjścia są wyposażone w interfejs, który pozwala na komunikację z systemem oraz jednoznaczne adresowanie urządzenia. Interfejs charakteryzuje odpowiednia specyfikacja elektryczna i logiczna, pozwalającą na komunikację z systemem, do którego jest dołączone. Najpopularniejsze interfejsy urządzeń wejścia-wyjścia to: RS-232, IDE, USB.

Obsługa

Obsługa urządzenia wejścia-wyjścia jest realizowana przez system, do którego jest dołączone. System przetwarza dane lub wysyła odpowiednio przetworzone dane do urządzenia. Funkcjonalność urządzenia wejścia-wyjścia jest silnie uzależniona od aplikacji działającej w systemie, która obsługuje dane urządzenie. Przykładowo obsługa tabletu graficznego poprzez komputer może się sprowadzać do podstawowej funkcjonalności myszy komputerowej, ale specjalizowana aplikacja może rozpoznawać siłę nacisku dobierając grubość kreski rysowanej w programie.

Monitor

Monitor komputerowy – ogólna nazwa jednego z urządzeń wyjścia do bezpośredniej komunikacji operatora z komputerem. Zadaniem monitora jest natychmiastowa wizualizacja wyników pracy komputera.

Obecnie używane monitory to ekrany komputerowe, obsługiwane przez komputer zwykle za pośrednictwem karty graficznej.

Od około 2005 roku rynek zdominowały monitory LCD. W najtańszych modelach sygnał jest nadal przesyłany analogowo przez złącze D-Sub. Bardziej bogato wyposażone modele posiadają gniazda cyfrowe, takie jak DVI, HDMI, DisplayPort, pozwalające uzyskać znacznie lepszą jakość obrazu i wyższe rozdzielczości.

Historia

Pierwszy polski komputer XYZ z 1958 r. używał synchroskopu, wyświetlającego na ekranie oscyloskopu, zawartość 16 słów pamięci w postaci 16 rzędów po 36 jasnych i ciemnych punktów. Następnie używany był dalekopis (np. ZAM 41) lub elektryczna maszyna do pisania (np. Odra 1305). Rolę monitora komputera domowego przeważnie pełnił telewizor.

W latach dziewięćdziesiątych i w pierwszych latach XXI wieku był najczęściej podłączany do gniazda 15-pinowego D-Sub. Do monitora sygnały przesyłane były w postaci analogowej (sygnały RGB). W tych czasach do profesjonalnych zastosowań graficznych stosowano specjalne karty graficzne i monitory, podłączane karty graficznej za pośrednictwem złącz BNC, a każdy z kolorów był przesyłany oddzielnie, co zmniejszało liczbę zniekształceń.

Jednostka Centralna - Najważniejsza Część

Jednostka centralna – zwana także jednostką systemową lub komputerem, zasadnicza część zestawu komputerowego zawierająca najważniejsze elementy składowe komputera, zawarte we wspólnej obudowie, stanowiąca zazwyczaj jednostkę handlową. W zależności od konstrukcji danego typu komputera, zawiera: zasilacz, płytę główną z procesorem, pamięcią operacyjną oraz porty do komunikacji z pozostałymi składnikami zestawu komputerowego. W skład jednostki centralnej mogą wchodzić również dalsze składniki jak dysk twardy, karty rozszerzeń, itd.

Od czasów wydania charakterystycznej wizualnie serii komputerów iMac wygląd jednostki systemowej stał się przedmiotem zainteresowania producentów i użytkowników popularnych komputerów osobistych. Wcześniej ich obudowy były zwykle jednolicie szare w kształcie prostopadłościanu, inne projekty plastyczne można było spotkać tylko wśród modeli komputerów markowych.

Samodzielne dostosowywanie wyglądu pecetów przez użytkowników określa się jako modyfikowanie komputera (ang. case modding) i jest analogiczne do zjawiska tuningu w motoryzacji.

Pojęcie wprowadzono by odróżnić używane wcześniej, które jest używane w kontekście ściśle informatycznym jednostka centralna (CPU) oznacza procesor wraz z pamięcią operacyjną.