grundlagen der informationsverarbeitung im bauwesenformationsverarbeitung im bauwesen i von herrn...

128
Karlsruher Institut f¨ ur Technologie Institut f¨ ur Baustatik Grundlagen der Informationsverarbeitung im Bauwesen Grundlagen Computerorientierter Methoden BAUSTATIK

Upload: others

Post on 25-Jan-2021

4 views

Category:

Documents


0 download

TRANSCRIPT

  • Karlsruher Institut für Technologie

    Institut für Baustatik

    Grundlagen derInformationsverarbeitung

    im BauwesenGrundlagen

    Computerorientierter Methoden

    BAUSTATIK

  • Vorbemerkungen

    • Das vorliegende Manuskript ist der unveränderte Nachdruck des Manuskriptes In-formationsverarbeitung im Bauwesen I von Herrn Kollegen Prof. Dr.-Ing. K.-U.Bletzinger, dem hiermit herzlich für die Bereitstellung gedankt sei.

    • Die vorliegenden Arbeitsunterlagen sind lediglich als Hilfsmittel zur Lehrveranstal-tung Grundlagen der Informationsverarbeitung im Bauwesen am Karlsruher Institutfür Technologie zu verstehen.

    • Die Arbeitsunterlagen können über das Internet von der Homepage des Institutsbezogen werden.

    • Ohne Genehmigung des Autors ist es nicht gestattet, dieses Heft ganz oder teilweiseauf fotomechanischem Wege (Fotokopie, Mikrokopie) zu vervielfältigen.

    • c© Prof. Dr.–Ing. W. WagnerInstitut für BaustatikKarlsruher Institut für TechnologiePostfach 698076128 Karlsruhe

    Telefon: (0721) 608–2280Telefax: (0721) 608–6015E–mail: [email protected]: http://www.bs.uni-karlsruhe.de

  • 1

    1 Inhaltsverzeichnis

    1 INHALTSVERZEICHNIS 1

    2 EINLEITUNG 6

    3 GRUNDLAGEN DER DATENVERARBEITUNG 7

    3.1 Daten, Information, Nachricht 7

    3.2 Informationsverarbeitung, Codierung 7

    3.3 Informationsdarstellung im Computer 9

    3.4 Zahlensysteme 9

    3.5 Speicherung von Daten 10 3.5.1 Darstellung ganzer Zahlen, Komplement 10 3.5.2 Gleitkommazahlen 11 3.5.3 weitere Datentypen 11

    3.6 Speicherorganisation 12 3.6.1 Speicherung binärcodierter Daten 12 3.6.2 Befehle und Programme im Speicher 13

    3.7 Datei 13

    3.8 Datenkompression 14

    3.9 Datenverschlüsselung 14

    4 AUFBAU UND BETRIEB VON COMPUTERN 16

    4.1 von-Neumann-Computer 16

    4.2 Funktion der Komponenten 16

    4.3 Der Mikroprozessor (CPU) 17 4.3.1 das Steuerwerk 17 4.3.2 das Rechenwerk 17 4.3.3 CISC-Mikroprozessor 18 4.3.4 RISC-Mikroprozessor 18 4.3.5 Leistungsmaße 18 4.3.6 Entwicklung der Mikroprozessor 18

    4.4 Speicher 19 4.4.1 Flüchtige Speicher 19

  • 2

    4.4.2 Nicht-flüchtige Speicher 20 4.4.3 Arbeitsspeicher 20 4.4.4 Massenspeicher 22

    4.5 Bussysteme 26

    4.6 Eingabe-Geräte 28

    4.7 Ausgabe-Geräte 29 4.7.1 Monitor 29 4.7.2 LC-Displays und LCD-Projektoren: 30 4.7.3 Gafikstandards 30 4.7.4 Drucker 30

    4.8 Weitere Ausgabe-Controller 31

    4.9 Multimedia 31

    5 BETRIEBSSYSTEME 32

    5.1 Betriebsarten 32

    5.2 Betriebssysteme 33

    5.3 Aufgaben eines Betriebssystems 34

    5.4 Befehlseingabe, Kommandointerpreter und grafische Bedienoberfläche 36

    6 DATEIEN UND DATEISYSTEME 39

    6.1 Das Dateisystem 39

    6.2 Dateinamen 39

    6.3 Zugriffsrechte 40

    6.4 Organisieren von Dateien und Verzeichnissen 40

    7 RECHNERNETZE - ARBEITEN IM NETZ 42

    7.1 Rechnernetze 42 7.1.1 Übertragungsmedien 43 7.1.2 Topologie von Netzwerken 43 7.1.3 Netzwerksysteme 45 7.1.4 Netzprotokolle 46 7.1.5 Netzwerk-Technologie 46 7.1.6 Aktive Elemente im Netzwerk 48 7.1.7 Datenübertragung mit Telefonleitungen 49 7.1.8 Das kleine ISDN-Lexikon 50 7.1.9 Netzwerk-Management 51

  • 3

    7.2 Das Internet 52 7.2.1 Zugang zum Internet 52 7.2.2 Internet Adressen 53 7.2.3 Netzwerkdienste 54

    7.3 WWW - das World Wide Web 57 7.3.1 Die Sprachen des WWW: HTML und Java 58

    8 TEXTVERARBEITUNG UND DESKTOP-PUBLISHING 61

    8.1 Textverarbeitung 61 8.1.1 Interaktive Systeme 61 8.1.2 Textsatzsysteme 61 8.1.3 Arbeitsregeln 63

    8.2 Desktop Publishing (DTP) 63

    8.3 Präsentationssoftware 64

    8.4 „Office“-Software 64

    9 TABELLENKALKULATION 65

    9.1 Grundlagen der Tabellenkalkulation 65

    9.2 Programmversion 65

    9.3 Excel starten und beenden 65

    9.4 EXCEL-Arbeitsbereich 66

    9.5 Wertzuweisungen 67

    9.6 Zellen kopieren, bewegen und löschen 68

    9.7 Zellbereichen Namen zuweisen 69

    9.8 Formeln 69 9.8.1 Numerische Formeln 69 9.8.2 Zellbezüge 70 9.8.3 Texte in Formeln 71 9.8.4 Funktionen verwenden 72 9.8.5 Logische Operatoren 72 9.8.6 Matrizen 74

    9.9 Diagramme 76

    9.10 Beispielhafte Anwendungen im Bauwesen 81 9.10.1 Bauphysik: Temperaturverlauf durch ein Bauteil 81 9.10.2 Kommunale Haushaltsführung (Prof. Scholl) 88

  • 4

    9.10.3 Prognose der Bevölkerungsentwicklung in Karlsruhe (Prof. Scholl) 90 9.10.4 Berechnung von Querschnittskennwerten 91 9.10.5 Berechnung von Durchschnitts- und Mittellohn 93

    10 DATENBANKSYSTEME 95

    10.1 Datenbankmodelle 95 10.1.1 Das hierarchische Datenbankmodell 96 10.1.2 Das Netzwerk-Datenbankmodell 96 10.1.3 Das relationale Datenbankmodell 97

    10.2 Allgemeine Datenbank-Konzepte 98

    10.3 verbreitete Datenbanksysteme 98

    10.4 Datenbankanwendungen mit EXCEL 99 10.4.1 Datenbank erstellen 99 10.4.2 Datenbanken selektieren 100 10.4.3 Beziehungen erstellen 101 10.4.4 Beziehungen auswerten 101

    11 COMPUTER-ALGEBRA-SYSTEME 103

    11.1 Allgemeines 103

    11.2 Maple Grundlagen 103 11.2.1 Introduction 103 11.2.2 Comments and Echoing (Kommentar und Echo) 104 11.2.3 Simple Arithmetic (einfache Arithmetik) 104 11.2.4 Variables and Equations (Variablen und Gleichungen) 105 11.2.5 Quotes, Names, and Values (Anführungszeichen, Namen und Werte) 106 11.2.6 Functions (Funktionen) 106 11.2.7 Basic Types and Conversions (Grundtypen und Konversionen) 107 11.2.8 Packages and Libraries (Zusatzpakete und Bibliotheken) 108 11.2.9 Restoring and Saving Sessions (Sichern und Wiederherstellen) 108

    11.3 Arbeiten mit Maple 109 11.3.1 Simplification 109 11.3.2 Some Predefined Symbols (Vordefinierte Symbole) 109 11.3.3 Summation 109 11.3.4 Differentiation and Integration 110 11.3.5 Series (Reihen) 110 11.3.6 Limits (Grenzwerte) 111 11.3.7 Solving Equations (Gleichungen lösen) 111 11.3.8 Assignment and Substitution (Zuordnung und Substitution) 111 11.3.9 Printing and Plotting Values (Drucken und Plotten) 112

    11.4 Maple Packages 114 11.4.1 linalg; linear algebra; Rechnen mit Matrizen und Vektoren 115

  • 5

    11.5 Advanced Maple 117 11.5.1 Manipulating Expressions 117 11.5.2 Sequences, Ranges and Sets(Folgen, Wertebereiche und Mengen) 118 11.5.3 Tables and Arrays (Tabellen und Felder) 118 11.5.4 Maple Initialization (UNIX) 119

    11.6 Programming in Maple 119 11.6.1 Control Structures 119 11.6.2 Procedures 121

    11.7 Error Handling 123 11.7.1 ERROR 123 11.7.2 lasterror and traperror 124

    11.8 Plotting Functions You Have Created 124

    12. LITERATUR 126

  • 6

    2 Einleitung Das moderne Ingenieurwesen ist von der elektronischen Datenverarbeitung geprägt. Diese Vorlesung gibt einen Überblick über Hilfsmittel und Methoden, die Grundwissen vermitteln sollen und von praktischem Nutzen sind. Andernorts wird dafür der Begriff Bauinformatik verwendet. Im Zeitalter der Telekommunikation gewinnen dabei die weltweiten Computernetze als Informationsquelle und Übertragungsmedium an Bedeutung. Die Entwicklung der Branche ist derart stürmisch, daß dieses Manuskript mit der Drucklegung sicher schon veraltet sein wird.

    Rechnen und Schreiben sind Beispiele für Informationssysteme. Texte gleichen Inhalts können z.B. in deutsch, englisch, chinesisch oder einer anderen Sprache oder mit verschiedenen Schriftzeichen abgefaßt sein. In jedem Fall werden vereinbarte Textsymbole und Vorschriften für ihre Kombination verwendet. Diese Informationen mit Rechenautomaten zu speichern, zu verarbeiten und weiterzugeben, ist Gegenstand der Informatik. Die Informatik sieht typischerweise von Besonderheiten spezieller Informationssysteme ab, indem sie durch Abstraktion allgemeine Modelle bildet. Sie befaßt sich einerseits mit den Strukturen, den Eigenschaften und den Beschreibungsmöglichkeiten von Informationen und Informationsverarbeitung und andererseits mit dem Aufbau, der Arbeitsweise und den Konstruktionsprinzipien von Computersystemen. Dies beinhaltet auch die Entwicklung von Softwaresystemen.

    Wesentlicher Bestandteil der Informationsverarbeitung ist die Definition von Algorithmen. Ein Algorithmus ist ein Verfahren zur Lösung von Problemen („Kochrezept“). Er gibt die elementaren Schritte und die Reihenfolge an, in der sie zu erledigen sind. In der Informatik wird ein Algorithmus durch ein entsprechendes Programm (Software) in eine solche Form gebracht, daß eine Maschine (Hardware, Computer) die Anweisungen in der entsprechenden Reihenfolge abarbeiten kann. Dazu verwendet ein Programm (wie jede Sprache) entsprechende Daten- und Programmstrukturen. Es existieren die verschiedensten Werkzeuge und Methoden des Software-Engineering, um den Algorithmus effizient und korrekt programmieren zu können. Tabellenkalkulationsprogramme sind einfache aber sehr gute Beispiele für die effektive Verknüpfung von Datenstrukturen mit der Programmierung von Algorithmen. Sie sind für die alltägliche Anwendung entwickelt worden und erlauben einen intuitiven Einstieg mit (fast) garantiertem Erfolg. Andererseits können anhand dieser Methoden in einer vertiefenden Betrachtung die Grundzüge der modernen Informatik studiert werden. Dies beginnt bei der interaktiven, grafischen Ein- und Ausgabe der Daten, geht über einfache Datenbankanwendungen und endet bei der objektorientierten Programmierung komplexer Algorithmen.

    Die Tabellenkalkulation nimmt eine zentrale Stellung in diesem Manuskript ein. Sie dient als Mittler der Theorien und Methoden der Informatik für die praktische Anwendung. Da auch die Anwendung vermittelt und - ganz wichtig - auch geübt werden soll, müssen wir uns auf ein verfügbares Produkt konzentrieren. Die Wahl fiel dabei (nicht ganz zufällig) auf Microsoft Excel 97, das in den CIP-Pools des Rechenzentrums und der Fakultät installiert ist und sicher auch sonst eine weite Verbreitung besitzt. Es ist nicht das Ziel, spezielle Kenntnisse und Fähigkeiten in Excel zu vermitteln, vielmehr sollen grundsätzliche Prinzipien der Programmierung erkannt und erworben werden. Diese Kenntnisse werden im zweiten Teil dieser Vorlesung mit Visual Basic for Applications (VBA) weiter vertieft, wobei es wiederum auf die Grundsätze der Programmierung ankommt. Diesem Ziel wird durch Vergleiche mit den bekannten Hochsprachen C und FORTRAN 77/90 Rechnung getragen. Ein kurzer Ausblick befaßt sich mit den Besonderheiten von JAVA.

    Karlsruhe, im Sommer 1998

  • 7

    3 Grundlagen der Datenverarbeitung

    3.1 Daten, Information, Nachricht Man versteht unter Daten im weitesten Sinne Objekte, die zu verarbeiten sind. Typische Beispiele sind Zahlen und Texte. Der Begriff „Daten“ wird meist über die Grundbegriffe „Information“ und „Nachricht“ definiert. Die Nachricht, z.B. eine Folge von Buchstaben „u“, „n“, „d“, „ ”, „t“, „s“, „c“, „h“, „ü“, „s“, „s“, wird erst durch die Anwendung von vereinbarten Interpretationsregeln zur Information. In unserem Beispiel ist deutsch eine Voraussetzung, um die von der Nachricht transportierte Information verstehen zu können. Die Nachricht ist ihrerseits aus „Symbolen“ zusammengesetzt, hier aus Buchstaben und dem Leerzeichen „ ”. Ein Symbol ist ein „Zeichen“ mit einer bestimmten Bedeutung. Das Zeichen „a“ wird zum Symbol, wenn wir es dem lateinischen „Alphabet“ zuordnen. Ein Alphabet ist ein geordneter „Zeichenvorrat“. Die Menge der natürlichen Zahlen {1, 2, 3, ...} ist ebenfalls ein Alphabet. Das kleinste Alphabet besteht aus zwei Zeichen, die „Binärzeichen“ oder „Bits“. Üblicherweise werden sie mit {0, 1} dargestellt. Sie sind nicht mit Dezimalzahlen zu verwechseln. Da es nur auf die Definition zweier unterschiedlicher Zeichen ankommt, könnten auch das Alphabet { , } oder die Zustände eines Schalters {aus, an} verwendet werden. Im Computer wird jede Information mit Binärzeichen über Spannungspegel dargestellt, z.B. {0 Volt, 5 Volt}.

    3.2 Informationsverarbeitung, Codierung Bevor Daten bzw. Informationen von einem Computer verarbeitet werden können, müssen sie mit Binärzeichen dargestellt werden. Diesen Übersetzungsvorgang nennt man „Codierung“. Nach der Verarbeitung müssen sie wieder zurück transformiert „dekodiert“ werden. Jede Art von Daten bzw. von Information wird infolge dessen in einer Folge von Binärzeichen ausgedrückt. Um die Nachricht verstehen zu können, muß auch eine Interpretationsregel bzw. „Code“ vereinbart werden. Ein seit 1968 international genormter 7-Bit-Code ist der ASCII-Code (American Standard Code for Information Interchange). Die Code-Tabelle ist in Tabelle 1 dargestellt. Zur Codierung der zehn Dezimalziffern reichen vier Bits aus:

    0000 0 0001 1 0010 2 0011 3 0100 4 0101 5 0110 6 0111 7 1000 8 1001 9

    Für die Verschlüsselung größerer Zahlen müssen entsprechend mehr Bits verwendet werden. Üblicherweise werden Bits in Gruppen konstanter Länge zusammengefaßt. 8 Bits ergeben ein „Byte“. Ein Byte repräsentiert damit 28 = 256 verschiedene Zeichen. Der 7-Bit ASCII Code beruht ebenfalls auf diesem Schema. Das 8. Bit wird für Kontrollzwecke verwendet und so gesetzt, daß die Quersumme der gesetzten Bits immer geradzahlig ist.

    Das grundlegende Schema der Daten- bzw. Informationsverarbeitung besteht aus den Schritten:

    1. Kodierung 2. Verarbeitung 3. Dekodierung

  • 8

    Binär Binär Binär Binär

    000 0000 NUL 010 0000 SP 100 0000 @ 110 0000 ` 000 0001 SOH 010 0001 ! 100 0001 A 110 0001 a 000 0010 STX 010 0010 " 100 0010 B 110 0010 b 000 0011 ETX 010 0011 # 100 0011 C 110 0011 c 000 0100 EOT 010 0100 $ 100 0100 D 110 0100 d 000 0101 ENQ 010 0101 % 100 0101 E 110 0101 e 000 0110 ACK 010 0110 & 100 0110 F 110 0110 f 000 0111 BEL 010 0111 ' 100 0111 G 110 0111 g 000 1000 BS 010 1000 ( 100 1000 H 110 1000 h 000 1001 HT 010 1001 ) 100 1001 I 110 1001 i 000 1010 LF 010 1010 * 100 1010 J 110 1010 j 000 1011 VT 010 1011 + 100 1011 K 110 1011 k 000 1100 FF 010 1100 , 100 1100 L 110 1100 l 000 1101 CR 010 1101 - 100 1101 M 110 1101 m 000 1110 SO 010 1110 . 100 1110 N 110 1110 n 000 1111 SI 010 1111 / 100 1111 O 110 1111 o 001 0000 DLE 011 0000 0 101 0000 P 111 0000 p 001 0001 DC1 011 0001 1 101 0001 Q 111 0001 q 001 0010 DC2 011 0010 2 101 0010 R 111 0010 r 001 0011 DC3 011 0011 3 101 0011 S 111 0011 s 001 0100 DC4 011 0100 4 101 0100 T 111 0100 t 001 0101 NAK 011 0101 5 101 0101 U 111 0101 u 001 0110 SYN 011 0110 6 101 0110 V 111 0110 v 001 0111 ETB 011 0111 7 101 0111 W 111 0111 w 001 1000 CAN 011 1000 8 101 1000 X 111 1000 x 001 1001 EM 011 1001 9 101 1001 Y 111 1001 y 001 1010 SUB 011 1010 : 101 1010 Z 111 1010 z 001 1011 ESC 011 1011 ; 101 1011 [ 111 1011 { 001 1100 FS 011 1100 < 101 1100 \ 111 1100 | 001 1101 GS 011 1101 = 101 1101 ] 111 1101 } 001 1110 RS 011 1110 > 101 1110 ^ 111 1110 ~ 001 1111 US 011 1111 ? 101 1111 _ 111 1111 DEL

    Tabelle 1. ASCII Zeichensatz

    Steuer- zeichen

    Bedeutung Steuer- Zeichen

    Bedeutung

    NUL NULL value DLE Data Link Escape SOH Start Of Heading DC Device Control STX Start of TeXt NAK Negative AcKnowledge ETX End of TeXt SYN SYNchronous Idle EOT End Of Transmission ETB End Of Tranmission

    Block ENQ ENQuiry CAN CANcel ACK ACKnowledge EM End of Medium BEL BELL SUB SUBstitue Character BS BackSpace ESC ESCape HT Horizontal Tabulation FS File Separator

  • 9

    LF Line Feed GS Group Separator VT Vertical Tabulation RS Record Separator FF Form Feed US Unit Separator CR Carriage Return SP Space SO Shift-Out DEL DELete (rub out) SI Shift-In

    Tabelle 2. ASCII Steuerzeichen

    3.3 Informationsdarstellung im Computer Mit einem Byte lassen sich die ganzen Zahlen von 0 bis 255 darstellen. Für übliche Anwendungen reicht dies nicht aus. Mehrere Bytes werden deshalb in einem „Wort“ zusammengefaßt. Ein Wort besteht aus genau der Anzahl von Bits, die im Computer gleichzeitig bearbeitet werden können. Bei heutigen Mikrocomputer sind 32 Bit als Wortbreiten, das entspricht 4 Bytes, üblich. Größere Wörter müssen in entsprechend mehreren Schritten bearbeitet werden. Mit den 32 Bits eines 4 Byte Wortes können demzufolge die positiven ganzen Zahlen von 0 bis 232-1 = 4.294.967.295 dargestellt werden.

    3.4 Zahlensysteme Zahlen werden wie alle anderen Datentypen als Bitfolge gespeichert. Dazu müssen sie aus dem uns üblicherweise geläufigen Dezimalsystem in das Dualsystem umgerechnet werden. Daneben werden häufig auch das Oktalsystem (Basis 8) und das Hexadezimalsystem (Basis 16) verwendet. Die für das Dezimalsystem entworfenen Ziffern 0 bis 9 reichen für das Hexidezimalsystem nicht aus und werden um die Buchstaben A bis F zur Darstellung der Zahlen 10 bis 15 erweitert.

    2 8 10 160 0 0 01 1 1 1

    10 2 2 211 3 3 3

    100 4 4 4101 5 5 5110 6 6 6111 7 7 7

    1000 10 8 81001 11 9 91010 12 10 A1011 13 11 B1100 14 12 C1101 15 13 D1110 16 14 E1111 17 15 F

    10000 20 16 1010001 21 17 1110010 22 18 1210011 23 19 1310100 24 20 14

    Darstellung von Zahlen in verschiedenen Zahlensystemen

  • 10

    Beispiel zur Umrechnung einer Dezimal- in eine Dualzahl und umgekehrt:

    Dual nach Dezimal:

    27 26 25 24 23 22 21 20 011001012 = 0 1 1 0 0 1 0 1 = 26+25+22+20 = 10110

    Dezimal nach Dual:

    10110 =

    101 : 2 = 50 Rest 1 50 : 2 = 25 Rest 0 25 : 2 = 12 Rest 1 12 : 2 = 6 Rest 0

    6 : 2 = 3 Rest 0 3 : 2 = 1 Rest 1 1 : 2 = 0 Rest 1

    = 11001012

    3.5 Speicherung von Daten

    3.5.1 Darstellung ganzer Zahlen, Komplement Ganze Zahlen, auch ‘integer’ genannt, werden in ein entsprechendes duales Bitmuster übertragen. Negative ganze Zahlen werden dargestellt, indem ein Bit für das Vorzeichen verwendet wird. Wird 0 als positive Zahl definiert, lassen sich mit einem 4 Byte Wort die Zahlen von - 231 = - 2.147.483.648 bis 231-1 = 2.147.483.647 beschreiben.

    Da das Rechenwerk eines Computer nur eine begrenzte Genauigkeit besitzt, kann die Subtraktion auch auf eine Addition zurückgeführt werden. Dies erfolgt durch die sogenannte Komplementbildung. Z. B. stehe einem Rechenwerk 4 Binärstellen zur Verfügung. Die größte darstellbare Zahl ist deshalb 15, die vierstellige Dualzahl 1111. Die erste gerade nicht mehr darstellbare Zahl ist C = 24 = 16, d.h. bei n darstellbaren Ziffern C = 2n.

    Die Addition 15 + 1 ergibt in unserem Beispiel deshalb Null, da nur vier Ziffern dargestellt werden können:

    1111 + 0001 0000

    D.h., die Subtraktion 15 - 5 = 10: 1111 - 0101 1010

    kann auch durch die Addition 15 + 11 dargestellt werden: 1111 + 1011 1010

  • 11

    Die erste Ziffer des vollständigen Ergebnisses 11010 fällt der Darstellungsgenauigkeit des Rechenwerkes zum Opfer. Das Komplement von 5 ist für dieses Beispiel also 11 = 16 - 5 oder, allgemein,

    Komplement = C - Zahl

    Das Komplement wird dadurch bestimmt, daß alle Bits invertiert werden (0 zu 1 und 1 zu 0) und dann eine 1 dazugezählt wird. Beispiel mit einem Rechenwerk von 7 Bit Darstellungsgenauigkeit:

    Dezimalzahl Dualzahl (7 Bits Genauigkeit,

    das 1. Bit für das Vorzeichen) 11 00001011 Inversion 01110100 Addition von 1 01110101 Komplement -11 11110101

    Gespeichert werden negative Zahlen als ihr Komplement.

    3.5.2 Gleitkommazahlen Gleitkommazahlen, auch ‘float’, ‘real’, oder ‘double precision’ genannt, werden halblogarithmisch dargestellt:

    x = M Be , z.B.:

    0,00123 = 0,123 10-2 = 0,123 E-3

    1230,0 = 0,123 104 = 0,123 E 4

    mit der Mantisse M, der Basis B und dem Exponenten e. So können Rechenungenaugigkeiten bei der Darstellung betragsmäßig sehr großer oder sehr kleiner Zahlen vermieden werden. Mantisse und Exponent werden natürlich dual gespeichert, wobei jeweils ein Bit für das Vorzeichen verwendet wird. Damit genügend Stellen für Mantisse und Exponent abgebildet werden können, werden für Gleitkommazahlen üblicherweise zwei Worte gekoppelt, das entspricht 8 Byte oder 64 Bit. Man spricht dann von doppelter Genauigkeit. Von den 64 Bit werden dabei xx für die Mantisse und yy für den Exponent verwendet. Jeweils inklusive Vorzeichen. Der Aufwand beim Rechnen mit Gleitkommazahlen (floating point) ist deutlich höher als bei ganzen Zahlen. Eine übliche Leistungsangabe für das Rechnen mit Gleitkommazahlen sind sogenannte „Mflops“ (millions of floating point operations per second). Diese Angabe sind für rechenintensive Anwendungen im Ingenieurwesen (Finite Elemente, Grafik, CAD) von Bedeutung.

    3.5.3 weitere Datentypen Auch alle anderen hier nicht erwähnten Datentypen (z.B. Text, komplexe Zahlen, Strukturen) und auch Programmanweisungen werden in entsprechenden Bitmustern und Interpretationsregeln auf Worte abgebildet und im Speicher abgelegt. Beim Betrachten des Inhalts eines Wortes kann ohne die zutreffende Interpretationsvorschrift nicht erkannt werden, um welche Art von Information es sich handelt. Dasselbe Bitmuster wird von den verschiedenen Operationseinheiten eines Computers unterschiedlich interpretiert: im Steuerwerk als Befehl, im Rechenwerk eventuell als Zahl oder Text und im „Floating Point Processor“ als Gleitkommazahl. Bitfolgen können auch in Dateien zusammengefaßt und auf entsprechenden Datenträgern gespeichert werden. Oft kann aus dem Namen einer Datei bzw. aus einer speziellen Endung auf bestimmte Dateientypen geschlossen werden; z.B. .txt für ASCII-Dateien, .bmp für Bit-Maps usw. Andererseits gibt der Kopf, d.h. die ersten Zeilen, einer Datei Auskunft über die richtige Interpretation der folgenden Bitinformation.

  • 12

    Textzeichen: Kodierung der Zeichen als Zahlenwerte nach dem ASCII-Code, Tabelle 1. Je Zeichen wird 1 Byte verwendet, es sind also 256 verschiedene Textzeichen möglich.

    Maschinenbefehle: Maschinenbefehle werden in einer prozessorspezifischen Verschlüsselung in Speicherworten abgelegt.

    Bildschirminhalte, ‘Bit-Maps’:

    Beispiel für einen „Bildschirm“ mit 8 Spalten und 7 Zeilen:

    ........ 00000000 ..****.. 00111100 ..*..*.. 00100100 ..****.. zeilenweise übersetzt in ein Bitmuster: 00111100 ..*..*.. 00100100 ..*..*.. 00100100 ........ 00000000

    3.6 Speicherorganisation

    3.6.1 Speicherung binärcodierter Daten Der Arbeitsspeicher ist ein Speicher im Computer, in dem sowohl Programme als auch die Daten gespeichert werden. Man kann sich darunter eine lineare Anordnung von binären Speicherelementen vorstellen. Jedes Speicherelement kann ein Bit speichern, d.h. kann die Werte 0 oder 1 annehmen (bzw. die Schalterstellungen an oder aus).

    Speicherelemente werden zu größeren Einheiten zusammengefaßt. Die Position einer Speichereinheit im Arbeitsspeicher ist durch ihre Adresse eindeutig bestimmt. Bleibt man bei der Vorstellung einer linearen Speicheranordnung, wie z.B. Häuser entlang einer Straße, so entsprechen die Adressen den Hausnummern und sind entsprechend ebenfalls in aufsteigender Folge numeriert. Die kleinste adressierbare Einheit ist eine Speicherzelle. Sie besteht in der Regel aus acht Bits, die zusammen ein Byte darstellen. Eine Speicherzelle kann damit ein Zeichen des ASCII-Codes oder bis zu acht boolesche Daten aufnehmen. Eine bestimmte Anzahl von Byte wird zu einem Wort zusammengefaßt, z.B. besteht ein Wort aus 4 Bytes aus insgesamt 4 x 8 = 32 Bits. Mit der Wortlänge werden Computer klassifiziert. Ein 32-Bit-Rechner verarbeitet demnach 4-Byte lange Wörter als eine Einheit. In einem Wort können beispielsweise eine ganze Zahl oder mehrere Zeichen gespeichert sein.

    Die Speicherkapazität bzw. die Menge an Daten, die ein Speicher aufnehmen kann, wird üblicherweise in Byte gemessen. Tatsächliche Speichergrößen sind meist Zweierpotenzen. Unter einem Kilobyte (KB) versteht man 210 = 1024 Byte, wobei 1024 die der Zahl 1000 nächste Zweierpotenz ist. Entsprechend versteht man unter einem Megabyte (MB) 220 = 1.048.576 Byte. Ein Gigabyte (GB) entspricht 1024 MB = 230 Byte.

    Das folgende Beispiel zeigt sechs aufeinander folgende 32-Bit-Worte mit je vier Byte. Byte 0 - 11 enthält den ASCII-Text „und tschuess“, Byte 12 bis 23 die Zahlen 28, 2 und 1998 als Ganzzahldarstellung.

    Adresse Speicherinhalt Klartext 0 01110101 0110111

    00110010

    000100000 und

    4 01110100 01110011

    01100011

    01101000 tsch

  • 13

    8 01110101 01100101

    01110011

    01110011 uess

    12 00000000 00000000

    00000000

    00011100 28

    16 00000000 00000000

    00000000

    00000010 2

    20 00000000 00000000

    00000111

    11001110 1998

    24 ... ... ... ... Arbeitsspeicherausschnitt mit adressierbaren Zellen von 1 Byte Länge

    3.6.2 Befehle und Programme im Speicher Programme bestehen aus befehlen, die solange konsekutiv abgearbeitet werden, bis eine Programmverzweigung eingeleitet wird oder das Programm an einem Endbefehl angekommen ist. Befehle bestehen in ihrer Struktur aus einem Operationsteil und einem Adreßteil. Meist werden Befehle in einem Wort dargestellt. Der Operationsteil definiert, welche Operation auszuführen ist. Der Adreßteil gibt die Speicherzelle an, in welcher der Operand gespeichert ist. Das folgende Bild skizziert das Aufbauschema eines Befehls:

    8 Bit 24 Bit Operationsteil Adreßteil

    Das Beispiel zeigt drei Befehle mit ihrem Operationsteil in einer mnemotechnischen Form, einem beispielhaften Adreßteil und einer kurzen Beschreibung des jeweiligen Befehls.

    Befehl Bedeutung LOAD 40210 Lade den Inhalt der Speicherzelle 40210 ins Rechenwerk. ADD 47836 Addiere Inhalt von Zelle 47836 zu dem im Rechenwerk stehenden Wert. STORE 90026 Speichere den im Rechenwerk stehenden Wert in Zelle 90026.

    Der Operationsteil eines Befehls ist im Computer nicht als Zeichenkette, sondern in Form einer Binärzahl codiert (z.B. LOAD = 1, STORE = 10). Man kann sich diese Repräsentation als Befehlsnummer vorstellen. Es gibt auch Befehle, die sich über mehrere Maschinenworte erstrecken, insbesondere solche, die mehrere Operanden im Adreßteil referenzieren.

    3.7 Datei In einer Datei (engl. File) werden Daten zusammengefaßt. Eine Datei kann z.B. Text enthalten. Eine Datei hat grundsätzlich einen Namen, mit dem sie angesprochen wird. Die Konvention, nach der der Namen gebildet wird, ist vom Betriebssystem abhängig. Meist erhalten Dateien eine kurze Erweiterung (Extension), anhand derer man auf die Art der Daten schließen kann. Die Datei „Manuskript.txt“ ist z.B. eine Textdatei. Alle Arten von Daten, die dauerhaft gespeichert werden sollen, werden in Dateien zusammengefaßt.

    Dateien sind nach gewissen Regeln aufgebaut, die sich nach den gespeicherten Daten richtet. Die Daten können nur dann richtig interpretiert werden, wenn diese Regeln bekannt sind. Häufig sind Dateien aus einem Header und dem eigentlichen Datenbereich aufgebaut. Der Header steht immer am Anfang der Datei. Er hat eine festgelegte Struktur. Er gibt an, wie die Daten in der Datei geordnet sind, was sie darstellen und wie umfangreich sie sind.

  • 14

    Gebräuchliche Extensions:

    Extension Bedeutung txt ASCII-Datei doc, rtf Textverarbeitung html Hyper Text Datei bmp, gif, tif, jpg Grafik Dateien wav, ai, mid Klangdateien exe ausführbares Programm xls Excel Datei

    3.8 Datenkompression Dateien können sehr umfangreich sein. Die Kapazitäten selbst großer Speichermedien sind dabei schnell erreicht, oder die Übertragung großer Dateien über Netzwerke oder auf Disketten erweist sich als zeit- und ressourcenaufwendig und teuer (z.B. Telefonkosten). Es wurden deshalb Verfahren entwickelt, mit denen man die langen Bitfolgen einer Datei in kürzere umwandeln kann. Man spricht dabei von Datenkompression oder zippen (ein gebräuchliches Kompressionsprogramm ist z.B. WinZip). Die Datenkompression ist reversibel. Dagegen läßt sich die ursprüngliche Bitfolge nach einer Datenreduktion nicht wieder vollständig herstellen. Eine Datenreduktion kommt z.B. bei Bildern in Frage. Der Datenumfang kann hier bis auf 5-10% verringert werden, ohne daß ein Qualitätsverlust wahrgenommen wird. Gewöhnlicher Text kann durchschnittlich auf 40% seines Ausgangsvolumens komprimiert werden. Ausführbare Programme (exe-Dateien) auf etwa 50%. Dateien weisen typischerweise wiederkehrende Bitfolgen auf. Die Kompressionsmethoden machen sich diesen Umstand zu nutze und ersetzen diese Bitfolgen durch eine kürzere Information. Der Datenumfang wird geringer, um so mehr, wie sich Bitfolgen wiederholen. Eine Folge aus echten Zufallszahlen kann deshalb prinzipiell nicht komprimiert werden.

    3.9 Datenverschlüsselung Die Datenverschlüsselung gewinnt in der modernen Telekommunikation immer mehr an Bedeutung. Daten werden über öffentliche Computernetze an einen bestimmten Adressaten geschickt und sollen nicht von anderen gelesen werden können. Die Daten werden deshalb verschlüsselt. Unverschlüsselte Daten nennt man Klartext, verschlüsselte Chiffrat. Bei der Verschlüsselung werden der Klartext und der Schlüssel (ebenfalls eine Folge von Bits) mit mathematischen Operationen verknüpft und in eine neue Folge von Bits, dem Chiffrat, umgewandelt. Bei der Entschlüsselung verfährt man umgekehrt. Der Schlüssel muß Sender und Empfänger bekannt sein. Er besteht üblicherweise aus 56 bis 1.024 Bits und wird meist aus einer Folge von Buchstaben und Zahlen dargestellt. Wird derselbe Schlüssel für Ver- und Entschlüsselung verwendet, spricht man von einem symmetrischem Verschlüsselungsverfahren. Das Problem dieses Verfahrens ist, das der Schlüssel dem Partner zugestellt werden muß. Dabei kann er in falsche Hände geraten; das Verfahren ist unsicher. Werden dagegen verschiedene Schlüssel verwendet, bezeichnet man die Methode als ein asymmetrisches Verschlüsselungsverfahren (RSA-Verfahren, nach seinen Erfindern Rivest, Shamir und Adleman). Dabei übergibt der Empfänger einer chiffrierten Nachricht dem Absender einen Schlüssel, mit dem der Absender die Nachricht verschlüsselt. Dieser Schlüssel kann durchaus öffentlich bekannt sein (public key), da der Absender nicht in der Lage ist, mit seinem Schlüssel oder auf andere Weise das Chiffrat wieder zu entschlüsseln. Nur der Empfänger ist mit seinem geheimen Schlüssel dazu in der Lage. Da der geheime Schlüssel bei diesem Verfahren nicht übertragen werden muß, kann er auch nicht abgehört werden. Bekannte Methoden, die auf dem RSA-Verfahren beruhen sind z.B. Data Encryption Standard (DES) und der modernere International Data Encryption Algorithm (IDEA). Bei der Verwendung von Verschlüsselungsprogrammen muß man darauf vertrauen, daß nicht geheime Zugänge zur unqualifizierten Entschlüsselung eingebaut sind. Kontrollieren kann man dies nur, wenn man Einblick in den Quellcode des Programmes hat. Dies ist der Fall bei dem Programm PGP (Pretty Good Privacy), das kostenlos verfügbar ist.

  • 15

    Das RSA-Verfahren wird in umgekehrter Richtung verwendet, um sicherzustellen, daß ein elektronisches Dokument auch tatsächlich von einer bestimmten Person stammt. Hier verschlüsselt der Absender das Dokument mit seinem geheimen Schlüssel. Wer das Dokument auf seine Echtheit prüfen will, kann es mit dem bekannten öffentlichen Schlüssel entschlüsseln. Eine zusätzliche Sicherheit ist eine Quersumme über alle Bits des Dokuments, die sog. check sum oder Prüfsumme. Wenn an den Daten manipuliert wurde stimmt die Quersumme nicht mehr.

  • 16

    4 Aufbau und Betrieb von Computern

    4.1 von-Neumann-Computer Der technische Aufbau eines Computers, die sogenannte Rechnerarchitektur, bestimmt maßgeblich Leistungsfähigkeit (absolute Rechenleistung), Effizienz (relative Rechenleistung bzgl. der Hardwarekosten), Ökonomie (z.B. direkter Speicherzugriff) und die Kosten für ein lauffähiges System. Grundsätzlich unterscheidet man zwei typische Rechnerarchitekturen: die von Neumann-Architektur und die Ein Rechner besteht aus Steuerwerk, Rechenwerk, Speicher, Ein- und Ausgabewerk

    (Schnittstellen);

    • das Rechensystem ist unabhängig vom Problem, das darauf abgearbeitet werden wird. Sollen verschiedene Aufgaben auf einem Rechensystem gelöst werden, so geschieht dies durch Austausch des Programms;

    • Befehle (Rechneranweisungen) und Operanden (z.B. Konstante bzw. Variablen) sind im selben Speicher untergebracht;

    • die Programmausführung erfolgt durch das sequentielle Abarbeiten der Befehle im Speicher. Sprungbefehle zur Abweichung von der gespeicherten Reihenfolge der Befehle sind möglich.

    Die wesentliche Eigenschaft des von Neumann-Rechners ist, daß sich Befehle und Operanden denselben Speicherraum teilen. Zur Befehlsausführung sind in der Regel zwei Speicherzugriffe notwendig. Dagegen stellt die Harvard-Architektur für Befehle und Operanden getrennte Speicher und Busse zurVerfügung, Befehl und Operand können gleichzeitig geladen werden. Dadurch wird die Rechenleistung enorm gesteigert. Allerdings steigt der technische Aufwand stark an, weshalb die Harvard-Architektur nur selten eingesetzt wird.

    4.2 Funktion der Komponenten Der Arbeitsspeicher dient dem temporären Halten von Daten und Programmen. Das Steuerwerk holt zur Ausführung eines Programmes Befehl für Befehl aus dem Speicher und stößt das Rechenwerk an. Weiter veranlaßt es den Speicher, je nach Befehl, Operanden dem Rechenwerk zuzuführen und ergebnisse in den Speicher zurückzuschreiben. Ein- und Ausgabewerk werden ebenfalls vom Steuerwerk gesteuert. Das Rechenwerk führt die konkreten Operationen aus, die zu einem Befehl gehören. Rechenwerk und Steuerwerk zusammen nennt man Prozessor oder auch CPU (Central Processing Unit).

    Die Komponenten Prozessor, Speicher und periphere Geräte eines Computers können über eine Art „Sammelschiene“, genannt Systembus oder kurz Bus, gekoppelt werden:

    Eingabewerk Arbeitsspeicher Ausgabewerk

    Rechenwerk

    Steuerwerk

    Steuersignal

    Datensignal

  • 17

    Eine Busstruktur hat gegenüber einer netzwerkartigen Kopplung den Vorteil, daß Leitungen gespart werden. Beim Aufbau eines Computers mit Busstruktur muß sichergestellt werden, daß zu einem Zeitpunkt nur eine Übertragung stattfindet. Man unterscheidet bei einem Systembus aufgrund der verschiedenen Informationsarten zwischen den Busteilen Datenbus, Adreßbus und Steuerbus. Computer können auch als Mehrbussysteme aufgebaut sein.

    4.3 Der Mikroprozessor (CPU) Der Mikroprozessor (die CPU, Central Processing Unit) enthält das vollständige Steuer- und Rechenwerk. Er verfügt selbst über gewisse Speicherzellen, den sog. Registern, die für die Speicherung der Steuerbefehle und Operanden verwendet werden. Je nach Prozessorarchitektur haben Register Wortlängen von 8, 16, 32 oder 64 Bit. Nach Einsatzgebiet unterscheidet man: • Befehlsregister (Steuerwerk):

    enthält den nächsten ausführbaren Befehl. Es enthält einen Operationsteil und einen Adreßteil. Der Operationsteil überträgt die Operation zum Rechenwerk, der Adreßteil adressiert die zur Befehlsausführung benötigten Daten im Arbeitsspeicher.

    • Befehlszählregister (steuerwerk): ist an den Adreßbus angeschlossen und gibt die Adresse des nächsten Befehls im Arbeitsspeicher an.

    • Datenregister (Rechenwerk): dienen zur kurzzeitigen Speicherung von Daten im Rechenwerk zur Ausführung von arithmetischen und logischen Operationen.

    Man unterscheidet Mikroprozessoren hinsichtlich • Befehlsvorrat des Rechenwerks (CISC, RISC) • Registerbreite (8, 16, 32, 64 bit, auch für den Adreßraum entscheidend) • Arbeitsgeschwindigkeit (Taktfrequenz, Anzahl der Arbeitsschritte pro Zeiteinheit) • Busbreite (Anzahl der parallelen Datenleitungen zwischen Prozessor und Arbeitsspeicher)

    4.3.1 das Steuerwerk Das Steuerwerk steuert die Abfolge bei der Programmausführung. Es überträgt aus dem Arbeitsspeicher Befehle und Daten an das Rechenwerk und umgekehrt, bzw. steuert es die Ein- und Ausgabeeinheiten an. Die Programmausführung ist ein zyklischer Vorgang mit den Phasen (Prozeßsequenz):

    1.) nächsten Befehl holen 2.) Befehl ausführen

    Man unterscheidet Transportbefehle, Arithmetische Befehle und Sprungbefehle. Jeder Schritt der Programmausführung wird in Maschinenbefehle umgesetzt. Komplexere Befehle können mehrere Maschinenbefehle benötigen.

    4.3.2 das Rechenwerk Das Rechenwerk verfügt über einen definierten Befehlssatz, der auf die zugeführten Daten angewendet wird. Man unterscheidet Integer- und Floating-Point Rechenwerke. Komplexe Befehle können oft nur in mehreren, zeitintensiven Arbeitsschritten abgearbeitet werden. Moderne Prozessoren verfügen deshalb nur über einen relativ kleinen Satz von Befehlen, die jeweils in einem Arbeitsschritt bzw. Takt abgearbeitet werden können.

    E/A-GerätArbeitsspeicher Prozessor E/A-Gerät

    Systembus

  • 18

    4.3.3 CISC-Mikroprozessor Diese Mikroprozessoren verfügen über einen sehr großen und komplexen Befehlssatz mit in der Regel mehr als 200 Maschinenbefehlen (CISC, Complex Instruction Set Computer). Da jeder Befehl auf dem Chip durch entsprechende Hardware-Schaltungen verwirklicht werden muß, ist diese Technologie entsprechend aufwendig und teuer. Darüberhinaus ist die Abarbeitung komplexer Befehle in mehreren Arbeitsschritten relativ langsam. Deshalb gilt diese Technologie inzwischen als überholt.

    4.3.4 RISC-Mikroprozessor Analysen von Programmabläufen zeigten, daß viele der speziellen Befehle eines CISC-Prozessors nur relativ selten ausgeführt werden. Die RISC-Technologie (Reduced Instruction Set Computerk) hält dagegen nur die Befehle vor, die häufig vorkommen und in einem Arbeitsschritt abgearbeitet werden können. Komplexe Befehle müssen in diesem Fall softwareseitig als eine Folge der verfügbaren Grundbefehle umgesetzt werden. Dadurch jedoch, daß auf einem Prozessor-Chip gegenüber dem CISC-Chip weniger Befehle implementiert werden müssen, ist man in der Lage, den reduzierten Befehlssatz hinsichtlich der Ausführungsgeschwindigkeit zu optimieren. Insgesamt beweist sich deshalb die RISC- als der CISC-Technik weit überlegen.

    4.3.5 Leistungsmaße Folgende Leistungsmaße für Mikroprozessoren sind gebräuchlich

    • MIPS (Million Instructions Per Second): Anzahl der bearbeiteten Maschinenbefehle pro Sekunde. In der Regel wird bei der Angabe der Rechenleistung in MIPS die Dauer des kürzesten Befehls genommen und auf eine Sekunde hochgerechnet. Man erhält so die maximal mögliche Rechenleistung des Prozessors, die in Wirklichkeit nur in Ausnahmefällen erreicht werden kann. Eine nicht unbedingt realistische Maßzahl.

    • MFLOP (Million Floating Point Operations Per Second): Anzahl der Gleitkommazahloperationen, die pro Sekunde durchgeführt werden können. Eine Angabe, die für rechenintensive Ingenieuranwendungen bedeutsam ist und i.d.R. den MIPS vorzuziehen ist.

    • SPEC • DHRYSTONE:

    Ein sogenannter Benchmark Test zur realistischen Beurteilung der Rechenleistung durch kleine charakteristische Programme aus einem Befehlsmix aus 51% Zuweisungen, 33% Steueranweisungen und 16% Funktionsaufrufen. Benchmarks testen bis auf wenige Ausnahmen nicht den Mikroprozessor alleine, sondern die gesamte Hardwarestruktur. Es gibt eine ganze Reihe von Benchmarks für die verschiedensten Anforderungen. Vorsicht: die so ermittelten Leistungswerte verschiedener Rechner sind nur dann vergleichbar, wenn sämtliche Voraussetzungen übereinstimmen. Kritisch ist dabei z.B.. der verwendete Compiler.

    4.3.6 Entwicklung der Mikroprozessor Entwicklung der Mikroprozessoren am Beispiel von INTEL und MOTOROLA

    INTEL MOTOROLA 1974 8080 Register: 8 Bit

    Bus: 8/16 (Daten/Adresse) 3 MHz

    1979 8086/87 Register: 16 Bit Bus: 16/20 10 MHz

    1979 M68000 Register: 32 Bit Bus: 16/24 8(-19) MHz

    1983 80286/287 Register: 16 Bit 1983 M68010 Reguster: 32 Bit

  • 19

    Bus: 16/24 12 MHz

    Bus: 18/24 12,5 MHz

    1986 80386/387 Register: 32 Bit Bus: 32/32 Bit 20 (-50) MHz

    1985 M68020 Register: 32 Bit Bus: 32/32 15 (-25) MHz

    1989 i486 Register: 32 Bit Bus: 32/32 Bit 33 (-100) MHz

    1987 M68030 Register: 32 Bit Bus: 32/32 Bit 20 (-33) MHz

    1992 i586 (P5) (Pentium)

    Register: 32 Bit Bus: 32/32 Bit 60 (-200) MHz

    1990 M68040 Register: 32 Bit Bus: 32/32 Bit 40 MHz

    1995 P6 (Ppro) Pentium Pro

    Register: 32 Bit Bus: 64/36 133 (-200) MHz 200er: 6,8 SPECfp95

    POWERPC PPC-601 PPC-603e PPC-604e

    166-200 MHz 0,35 µm-Technologie 180 MHz 5,0 SPECfp95 225 MHz

    1997 Pentium- Prozessoren mit MMXT (Multi-Media- eXtension) 0,25 µm-Technologie 300-333 MHz

    1997 PPC-G3 30 Mio. Transistoren 300-400 MHz

    1998 64 Bit, Gemein- schaftsprojekt mit HP

    1999 PPC-G4 50 Mio. Transistoren 0,18 µm-Technologie 500 MHz

    4.4 Speicher Es gibt zwei unterschiedliche Anforderungsprofile für Speicher in einem Computer: (i) Speicher für die schnelle und direkte Verfügbarkeit von Daten und Programmen in Kommunikation mit Steuer- und Rechenwerk bei der Abarbeitung von Programmen, die Arbeitspeicher, und (ii) die dauerhafte Archivierung von meist großen Datenmengen mit einer weniger bedeutsamen Zugriffszeit, die Massenspeicher. Arbeitsspeicher sind typischerweise aus Halbleiterelementen (Transistoren) aufgebaut. Man unterscheidet dabei flüchtige und nicht-flüchtige Speicher.

    4.4.1 Flüchtige Speicher Flüchtige Speicher werden aus RAM-Bausteinen (RAM, Random Access Memory) aufgebaut. Sie erlauben einen wahlfreien Zugriff (random access), d.h. der Zugriff auf jede Speicherzelle erfordert dieselbe Zeit. In RAM-Speichern können Daten eingeschrieben und ausgelesen werden. Weiter unterscheidet man statische und dynamische RAM-Speicher.

    4.4.1.1 Statische RAM-Speicher Die Speicherelemente der statischen RAM-Speicher (SRAM, Static Random Access Memory) sind sog. Flip-Flop-Speicherzellen, welche die beiden Zustände 0 und 1 in Abhängigkeit einer Steuerleitung einnehmen können. Der jeweilige Zustand bleibt solange erhalten, bis eine andere Information eingeschrieben, oder die Versorgungsspannung abgeschaltet wird. Solange dies nicht geschieht, bleibt der Speicherzustand unbegrenzt, d.h. statisch, erhalten. Der Vorteil dieser Speicherzellen ist, daß sie sehr schnell sind, d.h. daß sie sehr kurze Zugriffszeiten besitzen. Darunter versteht man die Zeit, die das Bauteil nach dem Anlegen der Adressen für die Bereitstellung der Information benötigt. Statische RAM sind dagegen relativ größer als dynamische, obwohl heute bereits mehr als Millionen solcher Speicherzellen auf einem Chip integriert sind. Das entspricht ungefähr 24 Millionen Transistorfunktionen. Der Einsatzbereich für statische RAM-Speicher ist

  • 20

    gegeben, wenn eine hohe Geschwindigkeit und kein allzu großer Speicherbedarf erforderlich sind, wie z.B. bei den Cache-Speichern.

    4.4.1.2 Dynamische RAM-Speicher Dynamische RAM-Speicher (DRAM, Dynamic Random Access Memory) sind aus Substratkondensatoren aufgebaut. Diese können in äußerst kleinen Abmessungen hergestellt werden. Dabei läßt sich jedoch ein Ladungsabfluß nicht vermeiden. Dynamische RAM-Speicher müssen deshalb regelmäßig, d.h. etwa all 10 ms aufgefrischt werden. In dieser Zeit kann nicht auf die gespeicherte Information zugegriffen werden, weshalb diese Speicher verhältnismäßig langsam sind. Infolge des geringen Platzbedarfs einer Speicherzelle sind jedoch höchste Packungsdichten möglich. Zur Zeit können mehr als 256 Millionen dieser Speicherzellen auf einem Chip untergebracht werden. Sie werden deshalb vor allem in Hauptspeichern eingesetzt, da sie trotz der zusätzlichen Ansteuerlogik (Aufrischen der Speicherzellen), den besten Kompromiß aus Schnelligkeit, Platz- und Energiebedarf sowie Kosten darstellen.

    4.4.1.3 Physikalische Realisierung der Speicherinhalte Daten jeder Art werden als Bitmuster der Werte „0“ und „1“ dargestellt. Dies wird in den Halbleitern durch elektrische Spannung dargestellt. Keine Spannung bedeutet „0“, eine Spannung von 2, 3 oder 5 Volt bedeutet „1“. Da beim Umschalten von „0“ nach „1“ oder umgekehrt sich der neue Spannungszustand erst einpendeln muß, kann der Speicherzustand erst nach einer gewissen Zeit nach dem Umschalten abgefragt werden. Die Dauer dieser Umschaltvorgänge werden durch eine innere Uhr erzeugt. Die Anzahl der Umschaltvorgänge pro Sekunde ergeben die Taktfrequenz des Computers. Die Taktfrequenz ist wesentlich für die Beurteilung der Arbeitsgeschwindigkeit des Computers. Moderne PC’s erreichen ein Taktfrequenz von bis zu 200 MHz. Die aktuellsten Zahlen entnimmt man am besten den Werbebeilagen der Tagespresse.

    4.4.2 Nicht-flüchtige Speicher Nicht-flüchtige Speicher behalten ihre Information, auch wenn die Versorgungsspannung abgeschaltet ist. Der Speicherinhalt wird von einem von der Betriebsspannung unabhängigen Prozeß in den Chip geschrieben. Dies bedeutet andererseits, daß die Information während des Betriebs i.d.R. nur ausgelesen werden kann. Wird die Information bei der Herstellung irreversibel in den Speicher geschrieben, spricht man deshalb von einem ROM-Speicher (Read Only Memory). PROM’s (Programmable Read Only Memory) können nach der Herstellung, jedoch nur einmal programmiert werden. Dagegen kann bei EPROM’s (Erasable Programmable Read Only Memory) und EEPROM’s (Electrically Erasable Programmable Read Only Memory) der Speicherinhalt auch wieder gelöscht und der Speicher neu belegt werden. Der Vorgang ist jedoch i.d.R: nicht beliebig oft wiederholbar. Bei EEPROM’s werden bis zu 100.000 Löschzyklen erreicht. Eingesetzt werden EPROM’s und EEPROM’s dort, wo anlagenspezifische Daten gehalten werden müssen, z.B. Sendereinstellungen bei Autoradios.

    4.4.3 Arbeitsspeicher Arbeitsspeicher sind die Speicher, mit denen der Prozessor unmittelbar kommuniziert. D.h., Arbeitsspeicher sind entsprechend schnelle Speicher, da ihre Zugriffszeiten die Gesamtgeschwindigkeit des Computers wesentlich beeinflussen.

    4.4.3.1 Hauptspeicher Der Hauptspeicher ist der wichtigste Speicherteil des Computers. Hier werden alle Daten zwischen- und alle Programme bzw. Programmteile ablauffähig gespeichert. Der Hauptspeicher ist i.d.R. aus DRAM-Speicherbauteilen aufgebaut. Übliche Kapazitäten der Hauptspeicher werden von den ständig steigenden Anforderungen der Betriebssysteme und der Anwendungssoftware bestimmt. Z. B.

  • 21

    empfiehlt es sich, einen mit Windows 95 betriebenen Rechner mit 32 MB Arbeitsspeicher oder sogar mehr auszustatten. Für spezielle Aufgaben ausgestattete PC´s können über weit mehr Hauptspeicher verfügen, sogenannte „Number Cruncher“ über 256 MB oder noch mehr. Die Hauptspeicher moderner „Workstation“ Computer sind den Anfoderungen an einen leistungsstarken Arbeitsplatzrechner entsprechend bis in den Gigabyte-Bereich ausgestattet, Großrechner entsprechend mehr. Absolute Größen anzugeben fällt zunehmend schwer, da die Innovationszyklen der Computertechnologie immer kürzer werden und Zahlen von heute morgen schon als völlig überholt sind. Die maximale Größe des Hauptspeichers wird durch den zur Verfügung stehenden Adreßraum bestimmt. Ein 32-Bit-Prozessor mit 32 Adressleitungen (s. Bussysteme) kommt auf einen Adreßraum von 4 GB, d.h. immer noch ein vielfaches der heute üblichen Speichergrößen. Wichtig ist, daß die Zugriffszeit zu allen Speicherzellen gleich ist.

    4.4.3.2 Cache-Speicher Der Zeitaufwand für einen Zugriff auf den Arbeitsspeicher ist für die Geschwindigkeit der Befehlsbearbeitung von signifikanter Bedeutung. Deshalb werden Zwischenspeicher für Befehle und Daten mit schnelleren Zugriffszeiten, sog. Cache-Speicher (Cache, engl. Versteck), zwischen Arbeitsspeicher und Steuerwerk angeordnet. Der Geschwindigkeitszuwachs resultiert daraus, daß das Laden des Cache von der Arbeitsweise des Steuerwerks entkoppelt werden kann. Dies macht sich insbesondere dann bemerkbar, wenn ganze Datenblöcke auf einmal transferiert werden, sog. Blocktransfer. Dies ist erheblich effizienter als das separate Ansprechen einzelner Zellinhalte. Andererseits müssen Datentransfer und Programmablauf nicht zeitlich synchron ablaufen. Nach den Registern des Mikroprozessors ist der Cache der schnellste Speicher. Er wird typischerweise deutlich kleiner als der Arbeitsspeicher gewählt und als SRAM realisiert. Üblich sind z.Zt. Cache-Speicher in der Größe von 256 KB bei einer Zugriffszeit weniger als 15 ns.

    4.4.3.3 virtueller Speicher Trotz seiner beachtlichen Größe reicht der Arbeitsspeicher nicht aus, um größere Datenmengen zu speichern oder ein bzw. mehrere Programme gleichzeitig abzuarbeiten. Das führt dazu, daß die Anwenderprogrammme auf einen größeren Adreßbereich zugreifen als physikalisch vorhanden ist und dekodiert werden kann. Die Zuordnung dieser sogenannten virtuellen Adressen zu physikalischen Adressen übernimmt in der Hardware die Memory Management Unit (MMU). Es befindet sich immer nur ein Teil des Programms im Arbeitsspeicher, der Rest ist auf den Sekundärspeicher (Festplatte) ausgelagert und befindet sich im virtuellen Speicher. Grundsätzlich werden dabei die virtuellen und physikalischen Speicher in Blöcke jeweils gleicher Größe unterteilt, den sogenannten Seiten. Die Seiten (pages) werden vom Sekundärspeicher (Festplatte) in die einzelnen Blöcke des Arbeitsspeichers, den Page Frames, übertragen. Den Vorgang nennt man paging oder swapping. Er ist sehr zeitaufwendig, da Speicherinhalt vom Arbeitsspeicher auf Festplatte und umgekehrt transferiert werden muß. Das Verhältnis der Größe des Arbeitsspeichers zur Größe der Anwenderprogramme und der dabei typischerweise verarbeiteten Datenmengen aber auch die Speicherzugriffstechniken der Algorithmen wirken sich direkt auf das paging-Verhalten des Rechners aus und beeinflussen die notwendige Auslegung des Arbeitsspeichers. Ein Rechner, auf dem z.B. häufig große Finite Element Berechnungen durchgeführt werden, sollte deshalb auch zur Verringerung des Paging mit einem entsprechend großen Arbeitsspeicher ausgestattet sein. Die Paging-Technik wirkt sich auch auf die erforderliche Größe der Festplatte aus. Es sollte stets genügend Platz fürs Paging vorhanden sein, üblicherweise ein mehrfaches des Arbeitsspeichers. D.h., ein Rechner mit großem Arbeitsspeicher muß allein aus dieser Überlegung heraus über entsprechende Festplattenkapazitäten verfügen. Auch hier ist es schwierig, konkrete Zahlen anzugeben. Es empfiehlt sich im Einzelfall die spezifischen Anforderungen mit den Hard- und Software-Herstellern bzw. Lieferanten zu besprechen und den Rechner entsprechend zu konfigurieren.

  • 22

    4.4.3.4 Weitere Begriffe SIMM: Single Inline Memory Module ( SIMM ), SIMMs haben auf beiden Seiten des

    Boards Kontakte welche miteinander verbunden sind. Demnach hat ein 72-Pin-SIMM 144 Kontaktflächen von denen jedoch nur 72 elektrisch relevant sind.

    DIMM: Ein Dual Inline Memory Modul ( DIMM ) hat auf beiden Seiten des Boards je 84 einzelne Kontakte. Durch die insgesamt 168 Pins kann gegenüber 72-Pin-SIM-Modulen ein grösserer Adressbereich adressiert werden (64 bit anstatt 32 bit ohne Parity bzw. 72 bit anstatt 36 bit mit Parity). Module dieser Bauart werden in Zukunft an Popularität gewinnen und bald als Standard im Bereich PC und Server eingesetzt werden.

    Flash Memory: Ein "Blitz"-Speicher ist ein nichtflüchtiger Speicher, der Daten über einen langen Zeitraum, auch ohne Stromversorgung, speichern kann. Diese Eigenschaft unterscheidet Flash-RAM von DRAM die einen Refresh benötigen. Die Lesedaten- Zugriffsgeschwindigkeit gleicht der von DRAMs. Die Schreib- und Löschgeschwindigkeiten sind erheblich langsamer als die von DRAMs. Flash Memory ist als SIMM, PC-Card (PCMCIA), Compact Flash (CF) Card, Miniature Card (MC), Solid State Floppy Disc Card (SSFDC) und anderen Modulen erhältlich. Flash-Module werden in Notebooks, Network-Routern, Druckern, PDAs und Digitalkameras meist als Massenspeicher verwendet.

    FPM DRAM: Fast Page Mode (FPM) Dynamic Random Access Memory (DRAM). Dieser Speicher kann Datenblöcke (Pages) ohne das zeitraubende ständige Neuladen der kompletten Adresse schneller als herkömmliche DRAMs ausgeben. Dieser Chip hat die Standard DRAMs nahezu komplett verdrängt.

    EDO DRAM: Extended Data Output, vergleichbar mit dem FPM DRAM. Extended Data Out bedeutet, daß im Gegensatz zum Fast-Page Speicher die Daten an den Ausgängen auch dann noch gehalten werden während eine neue Adresse geladen wird. Daher können die Zykluszeiten verkürzt werden.

    Level 0 Cache: Entkoppelt den Datenstrom der unterschiedlichen Recheneinheiten in der CPU. Grösse 1 Byte bis 128 Byte

    Level 2 Cache: Entkoppelt den Datenstrom von der CPU vom Memory Bus, Grösse von 256 KBytes bis zu mehreren MBytes.

    Level 3 Cache: Entkoppelt ggf. bei Mehrprozessorsystemen den separaten Systembus vom Memory Bus.

    Parity / Non-Parity: Parity-Module hingegen speichern Daten- und Parity-Informationen. Durch äussere Einflüsse (el.-mag. Felder, Spannungsschwankungen, radioaktive Strahlung, etc.) können die gespeicherten Daten verändert werden. Mit Hilfe der Parity Technik wird ein Fehler erkannt. Normalerweise wird 1 Parity bit pro Byte (8 bit) Daten gespeichert. Parity stellt Fehler nur fest, wenn sich eine ungerade Zahl bits verändert hat.

    ECC / EDC: Error Checking and Correcting, bzw. Error Detection and Correction. Weiter entwickelte Methode zur Feststellung und Korrektur von Speicherfehlern. Mit Hilfe entsprechender Algorithmen werden Blockweise Prüfsummen gebildet und in eigenen Speicherbereichen abgelegt. Dies kann im Parity bit sein, manche Systeme benutzen dafür eine eigene Speicherbank. Anhand dieser Prüfsummen können einzelne Bitfehler erkannt und korrigiert werden.

    4.4.4 Massenspeicher Massenspeicher dienen der dauerhaften Speicherung bzw. Archivierung von Daten. Sie sind nicht-flüchtige Speicher und basieren üblicherweise auf magnetomechanischen und optischen Verfahren. Der Zugriff ist i.a. langsamer als auf die flüchtigen (Arbeits-)Speicher auf der Basis der Halbleitertechnologie.

  • 23

    Massenspeicher lassen sich in Primär-, Sekundär- und Backup-Datenspeicher einteilen. Bei der Wahl des Massenspeichers und des dazu passenden Hostadapters müssen unter anderem berücksichtigt werden: die Auswahl der geeigneten Laufwerkstechnologie, Einbau, Hardwareanschluss, Softwareeinbindung, Performance und Kapazität

    Primär-Datenspeicher: Darunter versteht man Massenspeicher, die auf Daten im Random Access zugreifen. Zu dieser Gruppe zählen magnetische Festplattenlaufwerke und RAM-Drives.

    Sekundär-Datenspeicher: wechselbare Massenspeicher, die Daten ähnlich wie Primär-Datenspeicher speichern. Zu dieser Gruppe zählen magnetische und magneto-optische Wechselplattenlaufwerke, Diskettenlaufwerke und Memory-Card-Drives, CD- und DVD-Laufwerke.

    Backup-Datenspeicher: Dazu zählt man in der Regel Massenspeicher, die sequentiell arbeiten, z.B. Bandlaufwerke, Streamer. Der wahlfreie Zugriff auf Dateien und Programme ist nicht möglich, da die Suche nach Informationsblöcken in der Reihenfolge stattfindet, in der sie auf dem Datenträger stehen.

    4.4.4.1 Datensicherung – Backup Daten können verloren gehen durch:

    • Hardwarefehler, d.h. das technische Versagen des primären Massenspeichers (Plattencrash). Typische MTBF-Zeiten ( MTBF = Mean Time Between Failure = durchschnittliche Zeit zwischen zwei Ausfällen) von Laufwerken liegen heute bei über 500.000 Stunden. Bei 100 Laufwerken muß man mit einem Ausfall pro Halbjahr rechnen.

    • Versehentliches Löschen: kommt leider ständig vor und passiert jedem einmal. Garantiert. • Mutwillige Zerstörung durch Viren, Würmer, trojanische Pferde, Bomben und was sonst noch

    durch leichtfertiges Daten Kopieren übertragen werden kann. Daten sollten deshalb zusätzlich gesichert werden. Unter verschiedenen Technologien unterscheidet man hauptsächlich:

    • Datenspiegelung, Mirroring: Kopien von Daten werden auf einem weiteren primären Massenspeicher ständig aktualisiert. Vorteil: die Arbeit kann auch bei Plattenausfällen fortgesetzt werden. Nachteile: kein Schutz vor Datenlöschen, teure Technologie.

    • Backup: längerfristige Datenarchivierung auf sekundären Speichermedien oder speziellen Backup-Datenspeichern. Vorteile: gelöschte Daten können in einer älteren Version wiederhergestellt werden, preiswerte Technologie. Nachteil: umständliche Bedienung und langwierige Prozeduren. Auch Backup bietet keinen Schutz vor Viren etc., wenn sie auf das Backup-Medium gelangt sind. Außerdem ist zu beachten, daß infolge der Alterung der Speichermedien oder einer nicht mehr gebräuchliche Speichertechnik alte Aufzeichungen unbrauchbar werden können.

    Für die routinemäßige Datensicherung größerer Systeme, insbesondere bei Computernetzen und Mehrbenutzersystemen, die auch in kleineren Büros zur Regel werden, empfiehlt sich der Einsatz von HSM –Software (Hierarchical Storage Management) zur Administration des Backup-Vorganges.

    4.4.4.2 Festplatten (Hard Disks) Festplatten (auch Winchesterplatten oder Magnetplatten genannt) sind die für alle Standardanwendungen üblicherweise eingesetzten Massenspeicher. Sie arbeiten mit einem magnetischen Aufzeichnungsverfahren und lassen sich beliebig oft beschreiben und lesen.

    Der Formfaktor bezeichnet den Durchmesser des Datenträgers, also der Plattenscheibe(n) im Inneren der Laufwerksbox. Neben diesen Plattenscheiben enthält die Box die Schreib-/Leseköpfe, die

  • 24

    Mechanik zum Bewegen der Köpfe (den Aktuator), den Spindelmotor und die Logik (Elektronik). Derzeit werden Festplatten mit 2.5 Zoll (insbesondere für Notebooks), 3.5 Zoll und 5.25 Zoll Formfaktor angeboten. Kleinere Platten mit 1.8 bzw. 1.3 Zoll Formfaktor sind ebenfalls entwickelt worden.

    Die Festplatten werden als full height (82 mm), half height (41 mm), Low Profile (25.4 mm = 1 Zoll) und in Höhen von 19 und 12.5 mm angeboten. Die 3.5-Zoll-Versionen sind die z.Zt. am weitesten verbreitet und erreichen Kapazitäten bis ca. 18 GByte netto. Die größeren 5.25-Zoll-Laufwerke sind hauptsächlich als Bauform in voller Höhe verbreitet. Hier sind derzeit Nettokapazitäten bis ca. 46 GByte möglich.

    Die Kapazität von Massenspeichern wird in MByte gemessen. Man unterscheidet Brutto- und Nettokapazität. Die Bruttokapazität entspricht der theoretischen maximalen Kapazität des Laufwerks, die sich aus der Multiplikation von Bitdichte in der Spur mit Spurlänge, Spurenzahl und Zahl der Plattenoberflächen ergibt. Die Nettokapazität gibt an, wieviel Platz tatsächlich auf einem Laufwerk nutzbar ist

    Die von den Herstellern angegebene Nettokapazität unterscheidet sich erheblich von der tatsächlich für den Anwender nutzbaren Nettokapazität. Dies liegt zum einen darin begründet, daß zwischen den Blöcken etwa 10 bis 20 Prozent der Kapazität für Fehlerkorrektur- und Adressinformationen belegt sind. Zum anderen ist die Definition eines Megabytes nicht eindeutig: Plattenhersteller rechnen mit 1000 x 1000 Byte = 1 MByte (= 1.000.000 Bytes), während die meisten Betriebssysteme von 1024 x 1024 Byte = 1 MByte (1.048.576 Bytes oder Zeichen) ausgehen. Weiterhin benötigt das Filesystem Platz für Verwaltungsdaten.

    Die Nettokapazität ist auch von Formatierung und Konfiguration der Platten abhängig. Z. B. kann unter DOS, Win3.1, Win3.11 und Windows95 jeweils nur eine primäre Partition auf einer Platte konfiguriert werden, wobei im Gesamtsystem nur eine Partition aktiv sein darf, die aktive Partition ist normal die Bootpartition. Die max. Partitionsgrösse liegt leider immer noch bei 2 GByte, die max. Plattengrösse bei 8 GByte. Zu beachten ist, dass bei einer 2 GByte grossen Partition die Blockgrösse 32 KByte beträgt, d.h. wenn eine Datei von 250 Byte abgelegt wird, belegt sie trotzdem einen Block von 32 KByte. Dies ist nur zu umgehen wenn eine Blockgrösse von 8 KByte konfiguriert wird was bei einer Partitionsgrösse von 500 MByte automatisch der Fall ist. Bei Windows NT beträgt die maximale Filesystemgrösse 16 Exabyte (16 Millionen Terabyte) die maximale Plattengrösse ist also nur vom entsprechenden SCSI Controller abhängig. Die Partitionsgrösse kann ohne Probleme bei 20 GByte liegen.

    4.4.4.3 Disk Array - RAID Die Effektivität eines Computersystems wird wesentlich von der zuverlässigen I/O-Leistung (Schreib- und Lesezugriffe) der Plattensysteme beeinflußt. Eine Möglichkeit der Steigerung der Zuverlässigkeit ist dabei der Zusammenschluß mehrerer Platten zu einem Disk Array (Plattenstapel). Unter dem Oberbegriff RAID (Redundant Array of Independent Disks) faßt man Technologien zusammen, die mehrere Laufwerke zu größeren, ggf. schnelleren und vor allem ausfallsicheren Gesamtsystemen zusammenpacken.

    Ausfallsicher bedeutet, dass der Ausfall eines Einzellaufwerks weder zu einem Ausfall des Gesamtsystems noch zu Betriebsunterbrechung oder gar zu Datenverlust führt. RAID schließt oft verwendete Technologien wie Mirroring (d.h. Spiegelung von zwei oder mehreren Laufwerken an einem Controller), Duplexing (dito, aber mit zwei getrennten Controllern) und Striping (Zusammenfassen von mehreren Laufwerken als logische Einheit und blockweises Verteilen der Daten auf diese Laufwerke) ein. Unterschiedliche Level von RAID werden in der Literatur diskutiert. Die Bezeichnung Level in der RAID-Bezeichnung ist eigentlich missverständlich, denn RAID Level 3 baut keinesfalls auf RAID Level 2 auf. Statt Level sollte man eigentlich besser Typ sagen.

  • 25

    RAID Level 0: Striping. Bei diesem Verfahren werden mehrere kleinere Laufwerke zu einem großen logischen Laufwerk zusammengefaßt.

    RAID Level 1: Mirroring, Spiegeln. Alle Daten einer Platte (oder auch eines RAID-0-Sets) werden auf eine zweite (bzw. ein zweites RAID-Set) geschrieben. Vorteil: bei Ausfall einer Platte bleiben die Daten weiter verfügbar. Die Leistung beim Schreiben ist mit der einer Einzelplatte bzw. RAID-0 vergleichbar.

    RAID Level 2: der Plattenstapel wird um Fehlerkorrektur-Laufwerke mit ECC-Speicher-Technologie ergänzt. Vorteil: auch bei gleichzeitigem Ausfall von zwei Laufwerken gehen Daten nicht verloren. Nachteil: relativ langsame Zugriffsgeschwindigkeit.

    RAID Level 3-5 und weitere nichtnormierte Stufen: weiter verbesserte Fehlerkorrekturmethoden.

    4.4.4.4 Disketten (Floppy Disks) Wechselbare, rotierende, magnetisierbare Scheiben mit einer Zugriffszeit von etwa 150-250 ms. Disketten haben den Vorteil der weiten Verbreitung für den Austausch mit anderen Systemen. Übliche Kapazität von 360 KB bis 2.88 MB, in speziellen Bauformen auch bis 120 MB.

    Größen: 3½ Zoll; 1,44 MB, High Density Diskette spezielle Bauformen: 100 bis 120 MB (ZIP Disketten, geeignetes Backup-Medium für übliche private Anwendungen auf dem PC)

    4.4.4.5 Wechselplatten-Laufwerke Größere Datenmengen lassen sich mit Wechselplatten verwalten, ohne daß durch Umkopieren Zeit verloren geht Es gibt unterschiedliche Technologien, u.a. Wechselrahmen, in die normale Festplatten eingesetzt werden. Die Speicherkapazitäten entsprechen stationären Festplatten.

    4.4.4.6 Optische Datenträger CD-ROM: Compact Disk Read Only Memory; 650 MB Vorteile: hohe Lebensdauer, preiswert (z.Zt. nicht mehr als 0,01 bis 0,02 DM

    pro MByte). Nachteile: Nichtwiederbeschreibbarkeit, langsame Zugriffszeit (derzeit etwa 85-120 ms)

    CAV-Technologie: Constant Angular Velocity; variierende Datentransferrate bei gleichbleibender Umdrehungsgeschwindigkeit der CD

    CLV-Technologie: Constant Linear Velocity; variierende Umdrehungsgeschwindigkeit bei konstanter Transferrate.

    CD-R: Mit CD-Recordern (CD-R) können CD-Rohlinge (Write-once CD) einmalig beschrieben werden. Sehr gut zur Langzeitarchivierung geeignt Die Datenträger sind sehr sicher, eine nachträgliche Änderung der Daten ist nicht möglich.

    CD-RW: CD-Rewritable, bis zu 3000 mal wiederbeschreibbare CD. CD-RW Disks können nicht von allen CD-ROM Laufwerken gelesen werden.

    DVD: Digital Versatile Disk, ursprünglich: Digital Video Disk, 2-schichtig, 2-seitig, bis zu 16 GB Speicherkapazität. Die DVD-Laufwerke können alle herkömmlichen CD-Formate lesen

    DVD-R (Recorder) und DVD-RAM (wiederbeschreibbar):

    seit Ende 1997, Speicherkapazität von 2.6 GByte/Seite. Damit übertrifft DVD alle derzeit verfügbaren, mehrfach beschreibbaren Wechselmedien. Derzeit gibt es allerdings noch Probleme bei der Definition eines gemeinsamen Standards.

  • 26

    4.4.4.7 Magnetooptische Datenspeicher 3½ Zoll und 5¼ Zoll MO-Disks, wiederbeschreibbar, 2-seitig; 200 MB bis 1,2 GB Lesen auf der Basis des magnetooptischen Kerr-Effekts.

    Kleine und leichte Datenträger, peiswerte Alternative zu Winchester-Wechselplatten. Nachteil: vergleichsweise lange Zugriffszeiten. Die Laufwerke können vom Rechner wie ein normales Plattenlaufwerk genutzt werden. Einsatzgebiete: Wechselplatten (Datentransfer, sicherhetskritische Anwendungen), Backup mit schnellem direktem Zugriff. Zukünftig werden MO-Platten gegenüber den CD-RW Systemen an Bedeutung verlieren.

    4.4.4.8 Magnetbänder Geeignetes und preiswertes Medium für längerfristige Archivierung bzw. Backup mit Speicherkapazität bis zu 70 GB pro Band. Verschiedene Speichertechnologien. Cartridges in den verschiedensten Größen; 80 MB bis 2 GB DDS-Streamer: Digital Data Storage ; Schreib- und Lesegerät für 4mm- DAT-Bänder;

    2 GB bis 16 GB Speicherkapazität bei vorheriger Datenkompression (Reduzierung der Datenmenge durch Software), weit verbreiteter Standard; sequentielle Datenaufzeichnung, lange Zugriffszeiten (z.B. bis Daten am Ende des Bandes erreicht werden können)

    Schreiben nur von Beginn des Bandes oder nach den letzten aufgezeichneten Daten möglich

    DAT-Technologie: ging aus dem Einsatz von digitalen Aufzeichnungsverfahren im Audiobereich hervor, 4mm breites Magnetband, Helical-Scan-Aufzeichnungsverfahren

    DLT –Technologie: Digital Linear Tape, 1/2-Zoll-Magnetbänder in Kassetten. 40-70 GB Speicherkapazitäte auf einer Kassette, geringe Belastung der Bänder

    AIT-Technologie: Advanced Intelligent Tape, 8 mm Helical Scan Technologie, komprimiert bis 50 GB. Ein in der Kassette integrierter Memory Chip (MIC = Memory in Cassette) erlaubt eine Halbierung der durchschnittlichen Suchzeit auf einem Band.

    Exabyte: aus der Video8-Technik hervorgegangen, maximal 40 GB beim Exabyte Mammoth mit 170 m Band. Die Hersteller (Exabyte, Sony) garantieren eine Archivierungszeit von 10 Jahren

    Stacker/Jukebox: automatischer Kassettenwechsler mit 6 bis 100 Kasetten. Ein grosser Exabyte-Stacker mit 80 Kassetten und Mammoth-Laufwerk kann mit Kompression bis zu 3,2 Terabyte (3200 GByte) speichern.

    1/4-Zoll-Magnetbandkassetten: standardisiertes QIC-Format (Quarter Inch Cartridge). Das Magnetband wird ohne Lücken beschrieben (streaming) und voll ausgenutzt. Im Vergleich zum Helical-Scan-Verfahren werden die Bänder wesentlich weniger beansprucht und halten entsprechend länger.

    1/2-Zoll-Magnetband: klassisches, inzwischen veraltetes Backup-Medium insbesondere für Großrechner, Kapazität eines 730m Bandes nur bis zu 180 MB.

    4.5 Bussysteme Bussysteme dienen dem Transport von Speicheradressen und Speicherinhalten. Zur Beschleunigung der Datenübertragung werden mehrere Datenleitungen zu einem Bündel, dem sog. Bus, zusammengefaßt. Über einen Bus können Datenbits parallel, d.h. gleichzeitig von der sendenden zur empfangenden Einheit des Rechners übertragen werden. Unter der Breite eines Buses versteht man die Anzahl der parallelen Leitungen. Bei einer seriellen Übertragung werden Datenbits nacheinander,

  • 27

    entsprechend langsam, gesendet. Die Ansprüche an serielle Datenübertragungskabel sind jedoch sehr viel geringer.

    Bussysteme werden bezüglich der Transportwege unterschieden: • Zwischen Prozessor und Arbeitsspeicher (Hostbus oder Speicherbus)

    − Datenbus: Bündel von Leitungen zur parallen Übertragung von Bits. Die Busbreite entspricht meist der Wortlänge des Prozessors. Falls die Anzahl der Bits einer Dateneinheit größer als die Busbreite ist, muß diese Dateneinheit durch mehrere Speicherzugriffe übertragen werden.

    − Adressbus: Zur Adressierung der Speicherzellen. Die Anzahl ist entscheidend für den maximal adressierbaren Speicherbereich (Adressraum):

    − Busbreite Adressrau

    m 16 Bit 64 KB 20 Bit 1 MB 32 Bit 4 GB

    − Steuerbus: Zur Übertragung von Steuerbefehlen

    • Zwischen Prozessor bzw. Hauptspeicher und den Ein- und Ausgabeeinheiten (Systembus oder Peripheriebus)

    Verschiedene Systembusse: ISA-Bus: Industrial Standard Architecture, eines der ersten und ältesten PC-Bussysteme;

    Busbreite maximal 16 Bit, Bustakt 8 MHz. Damit sind theoretisch Datenübertragungsraten von 5 MByte/s möglich

    PCI–Bus: Busbreite 32 und 64 Bit, Transferrate 133 MB/s bis max 267 MB/s, 33 MHz Bustakt. Der PCI-Bus wird von fast alle bedeutenden Hersteller aus den Bereichen Prozessoren, Systemplatinen, Festplatten, Controller und Grafikkarten unterstützt.

    IDE: Integrated Drive Electronics auch AT-Bus oder ATA (AT-Attachment) genannt; im PC-Bereich sehr weit verbreitet, ausschließlich für Festplattenlaufwerke, maximal zwei Festplatten pro IDE-Schnittstelle. Sollen zwei IDE-Festplatten betrieben werden, wird eine Festplatte als Master, die andere als Slave konfiguriert. Ursprünglich konnten theoretisch maximal etwa 4.3 MB/s übertragen werden. In der Praxis werden jedoch nur circa 2 MB/s erreicht.

    Fast ATA, UltraATA, Enhanced IDE:

    Weiterentwicklungen mit gesteigerten Transferraten bis zu 33 MB/s.

    SCSI: Small Computer Systems Interface,; in seiner ursprünglichen Form 8 bit breiter, paralleler (SCSI 1 und 2), später auch seriell (SCSI 3) definierter, I/O-Bus, der sich für den Anschluss von Massenspeicherlaufwerken aller Art aber gelegentlich auch von Scannern und anderen Peripheriegeräten an verschiedenen Rechnersystemen sehr weit verbreitet hat. Die Vorteile: eine relativ hohe maximale Übertragungsrate, flexible und einfache Konfiguration. Bei SCSI ist viel Intelligenz im Laufwerk selbst vorhanden, denn die SCSI-Schnittstelle ist keine Schnittstelle im klassischen Sinne, sondern ein Peripheriebus, über den Laufwerke und Hostadapter miteinander kommunizieren. SCSI-Signale können entweder auf 8 bit (Narrow) oder 16 bit (Wide-SCSI) breiten Bussen übertragen werden. Bis zu 7 Laufwerke können am 8-bit-Bus angeschlossen werden, bis zu 15 Laufwerke am 16-bit-Bus. Beide Busbreiten verfügen wiederum über die Verkabelungsarten Single-Ended (SE) oder Differential (D). Bei SE-SCSI wird jedes Signal nur auf einer, bei D-SCSI dagegen auf zwei untereinander verdrillten Leitungen übertragen, die daher gegen magnetische Einflüsse unempfindlicher sind. Die Vorteile von D-SCSI sind daher

  • 28

    bessere Störsicherheit und, daraus resultierend, grössere Kabellängen . Nachteilig sind lediglich die - im Vergleich zu SE-SCSI - höheren Kosten für Laufwerke und Hostadapter.

    SCSI 1: parallel, Transferraten bis 5 MB/s. Wird seit ca. 1990 nicht mehr verwendet.

    SCSI 2: parallel, Transferraten bis 10MB/s (Fast SCSI), Busbreite 16 Bit (Wide SCSI), Transferrate bei Fast/Wide Kombination bis 20MB/s.

    UltraSCSI: parallel, Weiterentwicklung mit Transferraten bis zu 80 MB/s bei 16 Bit Busbreite.

    SCSI 3: serieller Peripheriebus.

    Fibre Channel: serielles SCSI, Transferraten von 12.5 MByte/s bis hin zu etwas 100 MByte/s

    Synchroner und asynchroner Datentransfer:

    beim asynchronen Datentransfer wird jedes Byte separat gesendet und bestätigt, während beim synchronen Transfer mehrere Bytes auf einmal gesendet und dann gemeinsam bestätigt werden. Der Overhead beim synchronen Übertragungsmodus kleiner und die Transferrate höher. Grundsätzlich können alle Peripheriegeräte asynchron arbeiten. Synchronlaufwerke bzw. -Controller stellen vor dem Datenaustausch beim sogenannten handshaking fest, ob der andere Kommunikationspartner auch synchronen Transfer beherrscht, und benutzen dann automatisch die entsprechende Datentransferart. Heutige SCSI-Laufwerke und Hostadapter unterstützen in der Regel die Synchronübertragung

    4.6 Eingabe-Geräte Tastatur: In jeder Tastatur befindet sich ein Microcontroller, der feststellt, welche Taste

    gedrückt wird und den Tastatur-Code dieser Taste seriell zum Rechner überträgt. Im Tastaturtreiber des Betriebssystems erfolgt dann die Umsetzung des Tastaturcodes in das eigentliche ASCII-Zeichen.

    Maus: Im wesentlichen besteht eine Maus aus einer Rollkugel und einer Sensor-Mechanik/Elektronik, welche die Drehbewegungen der Kugel erfaßt, in einen Datenstrom umwandelt und zum Rechner überträgt. Auf der Oberseite befinden sich bis zu vier Funktionstasten.

    Scanner: Zum Digitalisieren und Einlesen von gedruckten Texten, handschriftlichen Vorlagen, Fotos oder Zeichnungen. Funktionsprinzip: Ein lichtempfindliches CCD-Element (Charge Coupled Device) fährt, angetrieben von einem Schrittmotor, die von einer Lampe beleuchtete Vorlage ab. Das CCD-Element erkennt für die jeweiligen Farben die Helligkeitsunterschiede und wandelt diese in Spannungswerte um. Die analogen Spannungen werden dann von einem Analog/Digital-Konverter in digitale Informationen umgesetzt und an den Rechner übermittelt.

    One Pass Verfahren: einmaliges Überfahren; Three Pass: dreifaches Überfahren für jede der drei Grundfarben Rot, Grün, Blau.

    Die Auflösung eines Scanners wird in dpi (dots per inch) gemessen. Je höher die Auflösung, desto besser die Wiedergabe der Vorlage beim erneuten Ausdruck. Die dpi-Angabe bezeichnet die Anzahl der Pixel pro Zoll (1 Zoll = 2.54 cm), die von den Sensoren erfaßt werden. Wird ein Bild z.B. mit 100 dpi erfaßt, bedeutet dies, daß jedes Zoll in 100 Pixel zerlegt wird. Auf die Fläche gesehen liefert der Scanner also 100x100 = 10.000 Pixel pro Quadratzoll, bei 200 dpi sind es bereits 40.000 Pixel. Eine Verdopplung der Auflösung vervierfacht die Datenmenge. Die meisten Standard-Scanner arbeiten mit 400 dpi. Bessere Geräte arbeiten mit mehr.

    Die Farb- bzw. Bittiefe legt die Anzahl der erfaßten Graustufen bzw. Farben fest. Ein 1-bit-Scanner kann nur schwarz und weiß unterscheiden. Ein Scanner mit 8-bit-Farbtiefe kann dagegen bereits 256 Graustufen bzw. Farben (2 hoch 8)

  • 29

    erkennen. Bei 24-bit-Scannern erhöht sich diese Zahl auf 16.7 Millionen Farbmöglichkeiten. Die derzeitige Grenze liegt bei einer Farbtiefe von 36-bit.

    USB Schnittstelle: Universal Serial Bus; ein neuer Schnittstellenstandard für den Anschluss externer Geräte (z.B. Drucker, Modems, Tastaturen, Monitore, digitale Kameras etc.) über ein Bussystem an PCs. Der Vorteil der USB-Schnittstelle ist die unproblematische Integration von zusätzlicher Peripherie. Der USB-Controller erkennt, ob weitere Peripherie angeschlossen wurde, installiert automatisch die benötigten Treiber und stellt die Betriebsbereitschaft her. Bis zu 127 externe Geräte können theoretisch an die USB-Schnittstelle angeschlossen werden. USB wurde von Intel, Compaq, IBM und weiteren Computerherstellern entwickelt und soll sich als Standard etablieren.

    Weitere Eingabegeräte bzw. Eingabehilfen:

    Trackball: „umgekehrte Maus“, drehbarer Ball, meist bei Lap Tops

    Touchpad: berührungsempfindliche Fläche, Mausersatz, meist bei Lap Tops

    Digitalisierbrett: direkte Eingabe von X-, Y-Koordinaten

    Strichcode- bzw. Barcodeleser

    Digitale Kamera

    Spracheingabe: von zunehmender Bedeutung,

    Handschriftliche Eingabe: insbesondere bei elektronischen Notizbüchern

    4.7 Ausgabe-Geräte

    4.7.1 Monitor

    4.7.1.1 Kathodenstrahlbildschirm Für den Bildaufbau wird im Monitor ein Elektronenstrahl erzeugt, der mit einer festgelegten Frequenz horizontal und vertikal über die Bildfläche abgelenkt wird. Für die Synchronisation der beiden Frequenzen sendet die Grafikkarte entsprechende Impulse an den Monitor. Da die meisten Grafikkarten jedoch nur bestimmte Vertikal- und Horizontalfrequenzen unterstützen, kann nicht jede Grafikkarte mit jedem Monitor kombiniert werden. Die heute angebotenen Monitore sind sogenannte Multifrequenz-Monitore, bei denen die Zeilenfrequenz nicht fest vorgegeben ist, sondern sich in gewissen Grenzen nach dem jeweiligen Eingangssignal richtet. Daher ist man beim Einsatz eines solchen Monitors in der Auswahl einer Grafikkarte weniger eingeschränkt als bei Festfrequenzmonitoren. Die Entscheidung für eine bestimmte Grafikkarte sollte immer im Zusammenhang mit der für einen Monitor getroffen werden. Hierbei sind Kriterien wie Auflösung, Bildwiederhol- und Zeilenfrequenz sowie Anschlußart zu beachten.

    Die Auflösung eines Monitors steht für die Anzahl der Bildpunkte, die auf dem Monitor dargestellt werden. Ein Bildpunkt, auch Pixel genannt, entspricht der kleinsten adressierbaren Einheit.

    Die Bildwiederholfrequenz gibt an, wie oft das gesamte Bild pro Sekunde aufgebaut wird. Je höher sie ist, desto ruhiger erscheint das Bild. Optimal sind Werte ab etwa 73 Hz, bei denen das Auge kein Flimmern mehr erkennen kann und damit bei längerem Aufenthalt am Bildschirm ein ermüdungsfreies Arbeiten möglich ist.

    Die Zeilenfrequenz steht für die Zeit, die für den Aufbau einer Bildschirmzeile benötigt wird. Sie errechnet sich aus der Bildwiederholfrequenz und der Zeilenzahl des dargestellten Videomodus und wird in kHz angegeben. Sie ist abhängig von der Auflösung und der Bildwiederholfrequenz des Monitors.

  • 30

    4.7.1.2 LCD-Bildschirm Neben den klassischen Kathodenstrahlbildschirmen werden die LCD-Bildschirme (Liquid Crystal Display) immer interessanter. Vorteile: geringer Stromverbrauch (ca. 8 W), geringer Platzbedarf (vorteilhaft für Notebook bzw. Lap Top), absolut flimmerfreie Darstellung, fast strahlungsfrei.

    4.7.2 LC-Displays und LCD-Projektoren: für die Projektion von Daten; in Kombination mit Overhead-Projektoren (LC;Displays, Vorteil: preisgünstig; Nachteil: rel. Geringe Auflösung, Lichtstärke von Overhead abhängig) oder als eigenständiges Gerät (LCD-Projektor, Vorteil: höhere Auflösung, lichtstark; Nachteil: noch recht teuer)

    4.7.3 Gafikstandards Grafikstandards stellen sicher, daß Grafikkarten, Monitore und Anwendungsprogramme untereinander kompatibel sind. Für PC’s sind der Video Graphics Array Standard (VGA-Standard) und der Super-VGA-Standard am wichtigsten. Die Auflösung beim VGA -Standard beträgt 640 x 480 Punkte, wobei aus einer Palette von 256 Farben 16 gleichzeitig dargestellt werden. In einem zusätzlichen Modus können 256 Farben gezeigt werden, jedoch nur bei 320 x 200 Bildpunkten. Super-VGA ( SVGA ) steht für höhere Auflösungen von bis zu 1024 x 768 Bildpunkten. Für die Darstellung von 16 aus 256 Farben wird ein Bildschirmspeicher von 512 KByte benötigt. Bei 1 MByte Speicherausbau können insgesamt 256 Farben aus einer Palette von 16.7 Millionen Farben dargestellt werden.

    Für Workstations sind die Grafikstandards aus dem PC-Bereich nur von geringer Bedeutung. So ermöglichen die im Digital-, HP-, IBM- und SGI-Umfeld einsetzbaren Grafikkarten Auflösungen von 1024 x 768 und 1280 x 1024 bis zu maximal 1600 x 1280 Pixel bei unterschiedlichen Bildwiederholfrequenzen.

    Viele Grafikkarten besitzt eigene Grafik-Coprozessoren. Sie erhalten nur wenige Befehle von der Rechner-CPU und sprechen ihrerseits direkt den adressierbaren Bildwiederholspeicher der Grafikkarte an. Sie entlasten damit die Rechner-CPU.

    4.7.4 Drucker Kategorie Technologie Vorteile Nachteile Matrixdrucker Nadeln und Farbband • Geringe Anschaffungs-

    und Betriebskosten • Geeignet für

    Durchschläge und Endlospapier

    • Laut • Langsam • Geringe Qualität bei

    wenigen Nadeln

    Tintenstrahl- drucker

    Bubble-Jet Verfahren

    • Preisgünstige Anschaffung

    • Preisgünstiger Betrieb für kleine und mittlere Druckaufkommen

    • Hohe Schriftqualität • Grafikfähigkeit • leise

    • Verschleißempfindlich • Papierqualität beeinflußt

    Druckqualität • Nicht lichtecht • Nicht wasserfest • Teure Spezialfolien • Abfall: Leere

    Farbpatronen (evtl. recyclebar)

    Drop-on-Demand Laserdrucker Elektrofotografisches

    Verfahren • Hohe Druck- und

    grafikqualität • Preisgünstiger Betrieb

    bei höheren Druckaufkommen

    • bei älteren Geräten starke Ozonentwicklung

    • Abfall: leere Tonerkartuschen (evtl. recyclebar)

  • 31

    • leise Thermotransf- erdrucker

    Abschmelzen einzelner Druckpunkte von einer mit Wachsfarbstoff beschichteten Polyesterfolie

    • Brilliante, deckende Farben

    • Lichtecht, wasserfest

    • Kein vollständiger Verbrauch der Farbfolie

    • Spezialpapier • Hohe Verbrauchskosten

    Thermosub- limations-drucker

    Abschmelzen von Trägerfolie, Erhitzen bis zum Verdampfen der Farbe

    • Brilliante, deckende Farben

    • Lichtecht, wasserfest

    • Kein vollständiger Verbrauch der Farbfolie

    • Spezialpapier • Hohe Verbrauchskosten

    Phase-Change- Drucker

    Abschmelzen der Farbe von vier Farbstiften

    • Hohe Druck- und Grafikqualität

    • Kein Spezialpapier • Bedarfsgerechter

    Farbverbrauch

    • Druckergebnis nicht abriebfest, nicht beständig gegen hohe Hitze

    • Verminderte Transluzenz der Farben

    • Relativ hohe Verbrauchskosten

    Druckerprotokolle: HP-PCL (Printer Communication Language), PostScript, HP-GL (Hewlett Packard Graphics Language

    4.8 Weitere Ausgabe-Controller Festplatten- und Floppy-Disk-Controller Multi I/O-Karte (Serielle Schnittstelle, Parallele Schnittstelle, Game-Port) Netzwerkkarte Soundkarte

    4.9 Multimedia Allgemein wird unter Multimedia die Kombination von verschiedenen Medienformen wie Standbilder, Audio, Bewegtbilder, Texte und Grafiken bezeichnet. Viele Rechner erledigen weitere Aufgaben. Es können normale Musik-CD`s abgehört, E-Mails mit Toninformationen können verschickt werden oder der PC dient als Telefonanlage. Videokonferenzsysteme bekommen eine immer größere Bedeutung, da nicht nur ein normales Videobild übermittelt werden kann. Es ist möglich Konferenzen mit mehreren angeschlossenen Partnern abzuhalten und Dokumente über große Entfernungen schnell und kostengünstig auszutausche.

  • 32

    5 Betriebssysteme Im Ingenieuralltag ist der Computer Mittel zum Zweck. Eigentlich ist man an den Programmen interessiert und will damit arbeiten. Dabei ist das Betriebssystem (engl. operating system) von besonderer Bedeutung. Es setzt die Befehle, die beim Ablauf von Anwenderprogrammen oder interaktiv anfallen, in Steuersignale an die Hardware um. Ein modernes Betriebssystem besteht demnach aus zwei Teilen, dem hardwarespezifischen Teil, der genau auf den jeweiligen Rechner abgestimmt ist und dem darauf aufbauenden hardwareunabhängigen Teil, der mit der Anwendung kommuniziert. Anwendungen sollten keinen direkten Kontakt mit der Hardware haben. Diese Trennung erleichtert die Übertragung von Betriebssystemen und Anwendungen auf andere Rechnerarchitekturen wesentlich. Bei UNIX spricht man von der Kapselung der Hardware durch den Kern (Kernel) des Betriebssystems. Darüber liegen die hardwareunabhängigen Schalen (shells) des Betriebssystems und aller weiteren Anwendungsprogramme.

    5.1 Betriebsarten Die verschiedenen Rechner vom PC bis zum Großrechner werden unterschiedlich betrieben:

    Betrebsart Eigenschaften Einprogrammbetrieb Single Tasking

    Auf dem Rechner kann gleichzeitig nur ein Programm betrieben werden. Typische Eigenschaft von MS DOS. Inzwischen veraltetes Konzept.

    Mehrprogrammbetrieb Multi Tasking

    Der Rechner verarbeitet scheinbar gleichzeitig mehrere Programme. Die Rechenresourcen werden den Programmen nach einer Prioritätsreihenfolge "scheibchenweise" zugeteilt (Zeitscheibe). Die meisten Multi Tasking Systeme haben jederzeit Kontrolle über das System (echtes oder preemptives Multi Tasking). Windows 3.1 und Windows95 jedoch geben die Kontrolle zeitweise an die Anwendungsprogramme ab. Es entsteht der Eindruck eines echten Multitasking, wenn diese die Kontrolle in Sekundenbruchteilen wieder an das Betriebssystem zurückgeben (kooperatives Multi Tasking). Problem: bleibt ein Anwendungsprogramm "hängen", kann das Betriebssystem keine Kontrolle über den Rechner mehr erlangen. Man muß man den Rechner neu starten

    Multithreading Gleichzeitiges Abarbeiten von Teilen ein und desselben Programmes.

    Mehrbenutzerbetrieb Multi User-Betrieb

    Der Rechner wird gleichzeitig von mehreren Anwendern genutzt, z.B. an Großrechnern über Terminals oder über das Netz. Zusätzlich zum Multi Tasking muß das Betriebssystem die Zugriffsrechte der Anwender kontrollieren. Die Anwender arbeiten nur scheinbar gleichzeitig. Die Rechenzeit wird ebenfalls sequentiell zugeteilt (time sharing). Wchtigster Vertreter: UNIX. Kann das Betriebssystem nur einen Benutzer bedienen, spricht man von Single User Betrieb. Wird diese ausschließliche Nutzungsart von einem Multi User System vorgespiegelt, spricht man von einer virtual machine.

    Stapelverarbeitung Batch-Betrieb

    Der vollständig definierte Auftrag wird dem rechner zusammenhängend übergeben. Vom Augenblick der Übergabe kann der Anwender nicht mehr auf den Ablauf des Auftrags einwirken. Aufwendige Berechnungen werden vorzugsweise nachts oder am Wochenende im Batch-Betrieb durchgeführt.

    Interaktiver Betrieb Dialogbetrieb

    Der Anwender ist direkt mit dem Rechner verbunden (mit Bildschirm und Tastatur, auch übers Netz) und arbeitet interaktiv mit den Programmen.

  • 33

    5.2 Betriebssysteme Die für PC's wesentlichen Betriebssysteme sind: Name Eigenschaften UNIX In verschiedenen Versionen (z.B.: PC: LINUX, Hewlett-Packard: HP-UX,

    IBM: AIX, SGI: IRIX) weit verbreitetes, leistungsstarkes Betriebssystem. Erste Version war 1969 verfügbar. UNIX setzt die Kapselung der Hardware konsequent um. UNIX ist deshalb weitgehend vom Rechnertyp unabhängig. Die wesentlichen Eigenschaften sind: 32-bit System Multi-User Multi Tasking Modularer Aufbau, sehr anpassungsfähig Firmenunabhängiger, offener Standard Netzwerkfähig Viele Dienstprogramme Leistungsfähige Benutzerschnittstellen Portabilität (über 90% in C geschrieben) Zuverlässig Firmenspezische Dateisysteme

    MS DOS mit Windows 3.11

    Weit verbreitetes Betriebssystem für PC's mit Windows als grafische Bedienoberfläche. Inzwischen veraltet. 16-Bit System Single-User Single Tasking, mit Windows 3.11 eingeschrämkt Multi Tasking FAT-Dateisystem: Beschränkte Länge von Dateinamen und Extensions

    MS Windows95 Integration von DOS und Windows. DOS weiter als Trägersystem vorhanden, jedoch verborgen. Kein vollständiges 32-Bit System, Teile basieren noch auf 16-Bit Code. Aktueller Standard für viele Anwendungen. 32(16)-Bit System Single-User Kooperatives Multi Tasking, Steuerung über Taskleiste Desktop Oberfläche, persönliche Gestaltungsmöglichkeiten kontextsensitive Menüs, Verknüpfungen Lange Dateinamen Plug&Play (selbständiges Erkennen von Peripheriegeräten) Integrierte Netzwerkfähigkeit

    MS Windows98 auch unter dem Codenamen "Memphis" bekannt, beinhaltet zahllose Detailverbesserungen sowie eine neue. Neue Assistenten und Dienstprogramme. FAT32 als Standarddateisystem. FAT32 ist eine verbesserte Version des Dateisystems FAT, mit dem Festplatten mit mehr als 2 GByte Kapazität als ein einziges Laufwerk formatiert werden können

    MS Windows NT 4.0

    Für High-End PC's, Netzwerk Server und Workstations. Völlig neu konzipiert, keine Weiterentwicklung von DOS oder Wi