November 21, 2024

Osztott rendszerek, algoritmusok

Az operációs rendszerek elsődleges feladata erőforrások létrehozása és elérésének biztosítása a felhasználó számára. Ez fokozottan igaz hálózatok esetében, ahol nem csak a helyi gép erőforrásait (perifériák, számítási kapacitás, memória, háttértár, nyomtatók, adatok, programok) kell a felhasználó számára elérhetővé tenni, hanem a helyi hálózaton, és az ehhez kapcsolódó más hálózatokon, és végső soron az Interneten található erőforrásokat is. Ezeket az un. osztott rendszereket és az ezeken található erőforrásokat két alapvető típusú operációs rendszer segítségével érhetjük el. Ezek elsősorban abban különböznek egymástól, hogy ezt a megosztási problémát mennyire “rejtik el” a felhasználók elől, másképpen mondva mennyire “transzparensen” kezelik ezt a bonyolult feladatot. A két alapvető típus:

  1. hálózati operációs rendszerek
  2. osztott (operációs) rendszerek

Hálózati operációs rendszerek

Ez az egyszeribb eset. Itt a felhasználó folyamatosan tudatában van annak, hogy több gép erőforrásait használja, sőt, pontosan tudnia kell, hogy az elérni kívánt erőforrás hol található. Tipikus esetben a helyi gép erőforrásait is csak bejelentkezés után érheti el, és a bejelentkezési azonosítójához (login) tartozó kezelői jogok alapján használhatja az egyes rendszer-erőforrásokat, vagy ójabb bejelentkezés,
autentikálás után érheti el azokat. Ennek egyik tipikus formája a telnet illetve az FTP. Ezek az erőforrások tipikusan egy felhasználónév/jelszó páros ismeretével és felhasználásával érhetőek el, de ma már léteznek ennél pontosabb és megbízhatóbb (bár igaz, drágább) eljárások is, amelyek közül a legelterjedtebbek az azonosító chipkártyák és a különböző biometrikus eljárások, mind például az ujjlenyomat- olvasók, arc- és hangazonosító rendszerek, szivárványhártya (irisz) leolvasók és társaik.

Ezeknek a rendszereknek az elsődleges célja az adat-megosztás és kisebb mértékben a perifériák (tipikusan nyomtató és háttértár) megosztása. Nyilvánvaló, hogy
a felhasználónak viszonylag pontosan kell tudnia az elérni kívánt információ, erőforrás helyét, és nyilvánvaló a rendszer egyik nagy hátránya is: ugyanannak az adathalmaznak – például egy üzleti levélnek – a hálózaton elszórva több változata is létezhet. Ezeket a változatokat nem lehet az adott keretek között csak külső – tehát nem az operációs rendszer belső – szolgáltatások, programok segítségével lehet egységesen kezelni, az ebből származó problémákat megoldani. Tehát ezek a rendszerek magas fokú potenciális inkonzisztenciával bírnak, ami már közepes és nagy rendszerek esetén is komoly problémákat okoz.

Osztott (operációs) rendszerek

Ebben az esetben a felhasználó elől az erőforrások megosztásának egész problematikája, az erőforrások fizikai helye el van rejtve. A felhasználó számára minden erőforrás úgy jelenik meg, mintha a helyi gépen lenne. Az adatok mozgatása az operációs rendszer mélyebb rétegeinek a feladata, így ezek a rendszerek nagy fokú konzisztenciát biztosítanak. Ez három alapvető technika révén valósul meg:

  1. az adatok migrálása
  2. a számítások migrálása
  3. a folyamatok migrálása

Az adatok migrálása

Ha az A gépen dolgozó felhasználónak szüksége van a B gépen található adatokra, az operációs rendszer két módon oldhatja meg a problémát: vagy ideiglenesen átmásolja a teljes állományt az A gépre, amíg a felhasználónak szüksége van rá, a háttérben gondoskodva a felmerülő szinkronizálási problémák megoldásáról, vagy csak az állomány azon kis részét másolja ideiglenesen át, amire éppen szükség van. Manapság a második eljárás az elterjedtebb, az eredetileg a SUN által kifejlesztett, manapság az összes UNIX/LINUX típusú operációs rendszer által is használt NFS (Network File System).

A számítások migrálása

Néha sokkal célravezetőbb a számításokat egy más géppel elvégeztetni, mind amelyiken a felhasználó pillanatnyilag dolgozik. Például hatalmas adatmennyiségek feldolgozására van szükség egy távoli gépen. Vagy a távoli gépen sokkal nagyobb szabad számítási kapacitás van, mint a helyi gépen. Ilyen esetekben praktikusabb, ha a távoli gép végzi a számításokat, a hálózaton csak a végeredmény “utazik”. Ez legtöbbször az un. RPC (Remote Procedure Call) technika révén valósul meg, de számos más, itt nem részletezett eljárás is létezik.

A folyamatok migrálása

Amikor a felhasználó elindít egy folyamatot, ami a helyi processzoron fut, nem biztos, hogy itt is ér véget. Előnyös lehet, hogy az egész folyamat, vagy annak egy része (szál, thread) egy más processzoron folytatódjon. Ennek több oka lehet, mint például:

  • a terhelés kiegyensúlyozása, a helyi túlterhelések elkerülése
  • a számítási sebesség fokozása a részfolyamatok párhuzamos végrehajtása révén
  • a folyamat által támasztott hardverkövetelmények, amelyeknek egy távoli gép (legtöbbször egy specializált kiszolgáló) felel meg
  • speciális szoftverkövetelmények, aminek egy más gépen telepített szoftver felel meg

Ez a fajta migráció vagy automatikusan, operációs rendszer szinten valósul meg, vagy a felhasználó kifejezett kérésére. Egyik legismertebb megvalósítás az un. PVM (Paralell Virtual Machines), a SUN fejlesztése, amely segítségével egyszerűen lehet a folyamatok migrálására képes programokat fejleszteni.

Osztott algoritmusok

Az osztott algoritmusok fejlesztésében nem lehet figyelmen kívül hagyni egy pár fontos különbséget az egyszerű (vagy centralizált) algoritmusokhoz képest:

A rendszer globális állapotát nem ismerjük
A döntési folyamatban – az egyszerű algoritmusokkal ellentétben – nem lehet felhasználni a rendszer globális állapotára vonatkozó információkat. Egy hálózat bármely csomópontja csak a saját állapotát ismeri, ismerheti, a többi csomópontról szerezhető információk esetlegesek, pontatlanok vagy legalábbis a döntéshozatal pillanatában nagy valószínűséggel már elavultak. Még a kommunikációs alrendszer állapotát sem tudja egyik csomópont sem direkt módon megfigyelni, egyedüli lehetőség a beérkező és kimenő információk vizsgálata, összehasonlítása.
A globális idő hiánya
Az események, amelyek egy egyszerű algoritmus lépései, egy teljesen rendezett halmaz részei, a rendezési kritérium pedig az események időbeni összefüggése, természetes egymásutánisága. Másképpen bármely két eseményről egyértelműen megállapítható, melyik történt meg hamarább. Ez sajnos egy osztott algoritmus esetében nem így van, ebben az esetben nem beszélhetünk egy teljesen rendezett halmazról. Léteznek esemény-párok, amelyekről az időbeli sorrendiség egyértelműen megállapítható, de vannak mások, amelyek esetében nem. Egyszerű algoritmusok esetében alkalmazható az erőforrások egyszerű megosztása: ha a P folyamat hamarább kérte az adott erőforrást, akkor azt ő kapja meg, és a későbbi Q folyamatnak meg kell várnia, amíg az erőforrás felszabadul. Az osztott algoritmusok esetében ez a stratégia nem elégséges, különböző kiegészítésekre szorul.
A determinizmus hiánya
Az egyszerű algoritmusok működése leírható a bemenetek alapján. Ugyanazon adott bemeneti értékek esetén, különböző futtatások során ugyanazt a kimenetet kapjuk. Ettől eltérően egy osztott alkalmazás viselkedése rendszerint nem csak a bemeneti adatoktól függ, tehát nem determinisztikusan viselkedik. Ez elsősorban az algoritmus végrehajtásában résztvevő rendszer-erőforrások változó nagyságának és működési sebességének a következménye. Például egy szerver-folyamat ismeretlen számú kliens-folyamat kéréseit szolgálja ki. A szerver nem várakozhat, míg minden kérés beérkezik, hogy utána a rendszer pontos állapotának ismeretében dolgozza fel a kéréseket, hanem azonnal hozzá kell lásson a kérések kiszolgálásához. A feldolgozási sorrend a kérések beérkezési sorrendje, ami nem feltétlenül azonos a kibocsájtás időbeni sorrendjével. Ez elsősorban a kommunikációs sebesség-különbségek rovására írható, ezek a sebességek ismeretlenek és általában időben változnak.

Ezek a különbségek alapvető, konceptuális különbségekhez vezetnek az egyszerű és osztott algoritmusok tervezése során.