09.doc

(1117 KB) Pobierz
Helion

 









Rozdział 9. ¨ Sieciowe systemy operacyjne                            233

Rozdział 9.
Sieciowe systemy operacyjne

u        Branżowe trendy i ich ewolucja.

u        Rodzina NetWare.

u        Strategia sieciowa Microsoftu: wszechobecna sieć.

u        Sieci uniksowe.

u        Usługi katalogowe.

Niniejszy rozdział stanowi szczegółowy przegląd najlepiej sprzedających się i najbardziej zaawansowanych technologicznie sieciowych systemów operacyjnych. Przedstawiono w nim różne odmiany systemów Novell NetWare i Microsoft Windows, a także opisano sieci na bazie systemów Unix i Linux. O ile ten rozdział koncentruje się głównie na samych systemach operacyjnych i ich cechach, dwa następne stanowią rozszerzenie przedstawianej tematyki o rolę systemów operacyjnych w połączeniach z sieciami rozległymi, a w szczególności z Internetem i korporacyjnymi intranetami. Zacznijmy od krótkiego przeglądu branżowych trendów
i wpływu konkurencji na różne systemy operacyjne dla sieci lokalnych.

Branżowe trendy i ich ewolucja

Poniżej przytoczono kilka faktów dotyczących bieżącego stanu branży sieci komputerowych, które dobrze jest znać:

u        Wszystkie najważniejsze systemy operacyjne dla sieci LAN są wystarczająco szybkie dla praktycznie każdej organizacji. Przy wyborze sieciowego systemu operacyjnego szybkość nie jest czynnikiem decydującym.

u        Systemy operacyjne stają się coraz bardziej ze sobą zgodne i zdolne do współpracy. Tę cechę zawdzięczają przede wszystkim modułowej budowie. System operacyjny można skonfigurować tak, aby spełniał indywidualne wymagania.

u        NetWare wciąż ma największy udział w rynku zainstalowanych serwerów plików.

u        Microsoft Windows NT uszczuplił nieco rynkowe udziały NetWare. Serwery NT wykonują obecnie wiele zadań realizowanych kiedyś wyłącznie na serwerach NetWare.

u        Linux natomiast systematycznie odbiera klientów następcy Windows NT, systemowi Microsoft Windows 2000. Niska cena Linuksa czyni go szczególnie atrakcyjnym dla osób projektujących systemy przeznaczone do szerokiego wdrożenia, ponieważ brak opłat licencyjnych znacząco obniża koszt sieci w przeliczeniu na jedno stanowisko.

Wielkość rynku i potencjalne zyski skłaniają dostawców sieciowych systemów operacyjnych do zaciekłej konkurencji. Novell, który kiedyś cieszył się aż 70 procentowym udziałem w rynku sieci dla komputerów PC, utracił obecnie impet sprzedaży, jednak wciąż oferuje produkty o bardzo dużych możliwościach.

W roku 1989 dostawcy systemów operacyjnych podsycali wzrost rynku sieci, promując i oferując produkty zgodne z otwartymi standardami, nie zawierające zastrzeżonych rozwiązań firmowych. Na czele producentów oferujących produkty zgodne z otwartymi standardami stały takie firmy jak AT&T, Digital i 3Com. Zamiast starać się uzależnić każdego klienta od własnych standardów komunikacyjnych, firmy te przyciągnęły nabywców oprogramowaniem pracującym zgodnie z narodowymi
i międzynarodowymi standardami.

W latach 90. firmy z tego rynku oferowały klientom coraz wyższy poziom zgodności i współpracy swoich produktów. Ten trend poszedł już tak daleko, że obecnie firmy nie tylko zapewniają obsługę otwartych standardów, ale nawet dostarczają oprogramowanie obsługujące zastrzeżone protokoły swoich konkurentów. Od kilku lat Microsoft zaadoptował protokół IPX Novella jako domyślny protokół sieciowy Windows NT. Obecnie Microsoft i Novell dołączyli do licznej grupy systemów uniksowych, przyjmując TCP/IP jako protokół domyślny dla swoich systemów operacyjnych.

Pod względem praktycznym obsługa wielu protokołów oznacza, że administrator może skonfigurować sieciowego peceta tak, aby sieciowy napęd oznaczony literą F: odpowiadał serwerowi plików systemu Unix, sieciowy napęd G: serwerowi plików NetWare, a sieciowy napęd H: serwerowi Windows NT. Osoba używająca tego komputera nie musi znać żadnego z tych systemów, aby uzyskać dostęp danych na każdym z tych serwerów. Te możliwości są już dostępne, jednak wymagają ostrożnej integracji wszystkich elementów tak, aby zazębiały się bez zakleszczania.

Ulepszone możliwości współpracy i większa elastyczność to podstawowe wytyczne marketingowe i technologiczne dla producentów oprogramowania sieciowego. Elementy sieciowych systemów operacyjnych oraz serwery, które wykorzystują różne systemy operacyjne, można łączyć ze sobą, podobnie jak można korzystać w sieci
z kart sieciowych różnych producentów.

Wydajność i inne ważne czynniki

Wiele można się nauczyć o wydajności sieci, prowadząc przez lata testy w LAN Labs PC Magazine. Można się nawet dowiedzieć, że niektóre ważne czynniki są szczególnie trudne do zmierzenia. Dla przeciętnego użytkownika od przepustowości ważniejsze są: niezawodność, pomoc techniczna, zgodność i funkcje zarządzania.

 

 

 

Zmiksuj koktajl systemów operacyjnych

W każdej sieci kilka podstawowych funkcji, takich jak udostępnianie plików, drukarek, Internetu oraz zdalny dostęp, musi być realizowanych perfekcyjnie. Sieć powinna również nieźle sobie radzić z aplikacjami baz danych (wszystkie programy do obsługi firmy) i aplikacjam
i wykorzystującymi technologie internetowe, takimi jak korporacyjny serwer intranetowy. Nie warto się wahać ani sekundy przed mieszaniem różnych systemów operacyjnych. Jednak fundamentem aściwego doboru składników jest praktyka. Najlepiej połączyć Windows 2000 z Linuksem albo z NetWare, ale nie z obydwoma systemami naraz. Mieszanka trzyskładnikowa to prawdopodobnie zbyt skomplikowana sprawa. Aby skorzystać z najlepszych dostępnych usług serwera plików i wydruków należy połączyć Windows z NetWare. Aby obniżyć koszty specjalnych zastosowań, należy połączyć Windows
z Linuksem. I nie wolno zapominać o odpowiednim dla siebie poziomie komfortu technicznego.

 

 

 

Ile mocy obliczeniowej?

To prawda: system operacyjny dla serwera plików nie potrzebuje potężnej mocy obliczeniowej. W szczególności mało wymagające są pod tym względem systemy NetWare i Linux. Komputer z Pentium 333 i 128 MB będzie doskonały jako serwer. Windows NT i Windows 2000 potrzebują nieco większej mocy, ale i tak są w stanie działać na praktycznie każdym procesorze Pentium. Jednak uruchomienie innych serwerowych aplikacji – serwera WWW czy serwera baz danych – spowoduje gwałtowny wzrost zapotrzebowania na moc procesora. W takiej sytuacji warto myśleć o serwerze z dwoma procesorami i przetwarzaniem symetrycznym.

Pod względem szybkości wszystkie opisane w tym rozdziale systemy operacyjne mają na tyle dobre osiągi, że mogą zaspokoić prawie wszystkie wymagania.

Przy dużym obciążeniu sieci – odpowiadającym pracy stu klientów PC – typowy serwer plików dostarcza klientowi plik o wielkości 50 kB w 1,4 sekundy – co mniej więcej odpowiada wydajności dysku twardego komputera przenośnego. Przy mniejszym obciążeniu czas pobierania pliku będzie krótszy niż w większości dysków twardych dostępnych w laptopach.

Wieloletnie prace nad testowaniem sprzętu pozwalają Autorowi sformułować jeszcze jeden wniosek: PC wykorzystywany jako serwer plików działa w systemie interaktywnym i względnie jednorodnym, co sprawia, że trudno oceniać jego wpływ na wydajność tego systemu bez oceny pozostałych jego parametrów. Na przykład
w przypadku współczesnych napędów, kontrolerów dysków, kart sieciowych
i współczesnego oprogramowania, prędkość i typ procesora nie zdają się mieć znacznego wpływu na wydajność całego systemu. Jeśli jednak ktoś zdecyduje się skorzystać z możliwości współczesnych serwerów operacyjnych w zakresie uruchamiania oprogramowania do zarządzania siecią, programów komunikacyjnych lub serwera baz danych na PC, realizującym już funkcje serwera plików, obraz ten zmienia się. Aplikacje serwerowe gwałtownie pochłaniają moc procesora serwera.

Współczesne serwery plików robią znacznie więcej niż sieciowe pecety z możliwością jednoczesnego wielodostępu do udostępnianych plików i podkatalogów. Serwery te stają się hostami motorów baz danych, które opracowują odpowiedzi na złożone zapytania z programów użytkowych. Ponadto są one hostami aplikacji klient-serwer innego rodzaju, na przykład mechanizmów komunikacyjnych, takich jak Microsoft Messaging API. Produkowane obecnie serwery mogą komunikować się z zasilaczami UPS i podejmować odpowiednie czynności w przypadku otrzymania informacji o wyłączeniu napięcia. Ponadto na serwerach tych działają programy do zarządzania siecią i monitorowania jej aktywności, a nawet oprogramowanie czyniące z nich portale do połączeń z sieciami rozległymi, takimi jak Internet lub korporacyjne intranety.

 

 

Więcej o sprzęcie serwera w rozdziale 10.

Model klient-serwer

Model obliczeniowy klient-serwer to modny termin na rynku systemów operacyjnych dla sieci LAN. W architekturze klient-serwer pewne zadania wymagające intensywnego wykorzystania dysku, takie jak usługi baz danych i komunikatów, są realizowane przez serwer plików. Powoduje to zmniejszenie przeciążenia sieci, ale zwiększa obciążenie procesora serwera.

 

 

Więcej informacji o funkcjach oprogramowania dla sieci LAN oraz obliczeniach w modelu klient-serwer można znaleźć w rozdziale 8.

W miarę wzrostu zadań dla serwera plików potrzeba więcej pamięci RAM i więcej mocy obliczeniowej. Po zwiększeniu mocy serwera można dodać nowe funkcje do systemu operacyjnego dla sieci LAN – i tak wszystko się powtarza.

Nowe oprogramowanie, zwykle wykorzystujące moc najnowszego sprzętu, podnosi znaczenie sieciowych systemów operacyjnych w rosnącej sieci połączeń komputerowych.

 

To

przeniosłem ramkę w odpowiednie miejsce tekstu

nie „wszystko albo nic”!

W kwestiach dotyczących sieci nie dokonuje się wyborów na całe życie. Na przykład bardzo rozsądnym wyborem dla aplikacji biznesowych jest skonfigurowanie serwera plików w oparciu o NetWare. Novell ma do zaoferowania doskonałe opcje podnoszące niezawodność serwera. Nic nie stoi jednak na przeszkodzie, aby dla serwera komunikacyjnego wybrać system Windows 2000, ponieważ wielu dostawców oferuje produkty z zakresu bezpieczeństwa i zdalnych połączeń przeznaczone dla Windows NT i 2000. Tworzenie specjalnych aplikacji może odbywać się pod Linuksem (pod warunkiem, że personel zna Uniksa), aby zmniejszyć koszty. Można mieszać ze sobą oprogramowanie, sprzęt i protokoły w sieci LAN tak, aby w pełni zaspokoić swoje potrzeby.

Nie wolno zapomnieć o wyposażeniu serwera w zasilacz UPS.

Protokoły sieciowe

Niezawodna i efektywna obsługa danych w sieci polega całkowicie na protokołach – porozumieniach, które opisują sposób wykonywania określonych czynności. Chociaż protokoły sieciowe są niewidoczne dla użytkowników, ich architektura jest jednym z najważniejszych elementów, które trzeba wybrać planując budowę sieci LAN lub WAN. Nie licząc starych sieci firmowanych przez jednego producenta, takich jak SNA IBM czy DECnet Digitala, do wyboru pozostają SPX/IPX (Sequenced Packet Exchange/Internet Packet Exchange) Novella lub TCP/IP (Transmission Control Protocol/Internet Protocol). Na rysunku 9.1 pokazano, w jaki sposób dane „kapsułkowane” są w pakiety TCP/IP.

 

Rysunek

podpis do rysunku umieściłem w ramce na marginesie

9.1.

Warstwy oprogramowania sieciowego

 

 

Współdziałanie warstw oprogramowania

Każda z różnych warstw oprogramowania sieciowego opakowuje użyteczne dane z aplikacji lub klawiatury w „kopertę” o specjalnym formacie. Na tym rysunku pokazano, jak dane programowe przekształcane są w pakiet TCP, pakiet TCP w pakiet IP, a pakiet IP (zawierający wszystkie poprzednie pakiety) w pakiet lub ramkę Ethernetu. Proces tych przekształceń ma ściśle określoną strukturę, która – chociaż mogłaby być bardziej uproszczona – zapewnia współdziałanie.

 

Opis zestawu protokołów TCP/IP stanowi ważną część rozdziałów 11. i 13.

 

 

Jedną z wielu wspaniałych idei, które nie wytrzymują zderzenia z rzeczywistością jest idea prostej sieci z jednym protokołem. Większość organizacji, w których sieci działa kilkadziesiąt i więcej komputerów, ma do czynienia z mieszanką dyskowych i sieciowych systemów operacyjnych, jak powstaje w wyniku różnych fuzji i reorganizacji, a nie – precyzyjnego planowania. Wraz z rosnącą heterogenicznością sieci zarządzanie różnymi systemami staje się coraz trudniejsze. I chociaż są to sprawdzone standardy, administrowanie taką hybrydową siecią to wciąż wieloaspektowy proces.

Internet skomplikował to jeszcze bardziej. We wszystkich zastosowaniach praktycznych korzystanie z Internetu oznacza korzystanie z protokołu TCP/IP w każdym PC, na którym działa przeglądarka. A to oznacza konieczność dodania protokołu TCP/IP do używanych już protokołów IPX czy LocalTalk. Związana
z tym konieczność wprowadzenia adresów IP może znacząco zwiększyć obciążenie administratora sieci.

 

 

Więcej informacji na temat adresowania IP zostało opisane w podrozdziale „Piekło i niebo IP”.

 

 

 

IPX to nic złego

Jeśli sieć działa na protokole IPX i to wystarcza, to niech tak zostanie! Na komputerach, które będą miały dostęp do Internetu trzeba będzie dodać protokół IP. IPX to najlepszy protokół dla sieci lokalnej.

Duży udział Novella w rynku sieciowym oraz krótkotrwała adopcja protokołów IPX przez Microsoft wpłynęły na powstanie wielu sieci wspartych na tych protokołach. Od wersji NetWare 2.1 aż do 4.x Novell opierał całą sieciową komunikację warstwy transportowej na protokołach SPX/IPX. Sukces NetWare pchnął wielu innych producentów ku protokołom SPX/IPX, dzięki czemu można obecnie kupić przeznaczone dla tych protokołów zarówno wyrafinowane analizatory sieci, jak
i specjalne programy komunikacyjne.

Tak jak w przypadku innych protokołów komunikacyjnych, SPX/IPX to nie jest pojedynczy protokół, ale zestaw standardowych procedur, które umożliwiają nawiązywanie połączeń pomiędzy komputerami. W praktyce każdy zestaw protokołów formatuje wiadomość, czyli pakiet, dodając do niego określone charakterystyki, takie jak informacje adresowe, informacje o odbiorze lub informacje o routingu. Pakiety są często wielopoziomowo zagnieżdżone, tak więc w pakiecie może znajdować się pakiet, w którym jest następny pakiet, a każdy z nich ma określoną funkcję.

IPX odpowiada za adresowanie pakietów pomiędzy węzłami systemu NetWare, ale ich nie liczy, ani nie potwierdza odbioru. Odbiór danych w miejscu docelowym oraz odesłanie potwierdzenia do nadawcy to zadanie protokołu SPX, o ile jest używany. Nieliczne aplikacje, które wymagają gwarantowanej dostawy – na przykład aplikacje do przesyłania plików – mogą adresować swoje bloki danych za pomocą SPX. Jednak większość aplikacji, a w szczególności te, które same sprawdzają powodzenie transmisji, używa protokołu IPX, ponieważ jest bardziej wydajny i wprowadza mniej informacji dodatkowych.

Protokół IPX jest szybki i wydajny, zwłaszcza w przypadku względnie małych (około 512 bajtów) pakietów danych, najczęściej żądanych przez aplikacje Windows. Jednak małe pakiety danych „nie są dobrze” widziane w sieciach rozległych, wykorzystujących wolniejsze i drogie łącza międzysieciowe, z uwagi na wprowadzanie dużego narzutu informacyjnego.

Niemal do końca roku 1994 produkty sieciowe Microsoft używały do przenoszenia danych pomiędzy kartami sieciowymi protokołu sieciowego o nazwie NetBIOS. Chociaż protokół ten jest szybki w małych sieciach, to jednak pakiety NetBIOS-u nie zawierają wystarczających informacji do kierowania ich poprzez łącza międzysieciowe. Z tego powodu późniejsze wersje Windows NT oraz Windows 95 korzystają ze stworzonej przez Microsoft implementacji protokołu IPX Novella, jako głównego protokołu sieciowego. Obecnie zarówno Microsoft, jak i Novell przyjęli IP za domyślnie instalowany protokół, ale IPX wciąż odgrywa ważną rolę, ponieważ jest stosowany do przesyłania danych w wielu sieciac...

Zgłoś jeśli naruszono regulamin