journal - sonntag.cc · die vortragenden prof. ernesto della salla (teleporto adriatico) und henk...
TRANSCRIPT
JOURNAL
DAS MAGAZIN DER OESTERREICHISCHEN COMPUTER GESELLSCHAFT • WWW.OCG.AT
Ausgabe 5/2004Dezember - 29. Jhg.
P.b
.b. •
Ver
lags
post
amt
1010
Wie
n •
02Z0
3146
0M •
EU
R 2
, 91
Grid Computing in Österreich
Nachbericht gmds2004 in Innsbruck
RSS Datenbank in der OCG
Softwarepatente und E-Commerce
2JOURNAL
Inhalt
Inhalt
Editorial Univ.-Prof. Dr. Gabriele Kotsis 3
Forschung und Innovation Agile Software Entwicklung 4 Softwareentwicklung und Informatikforschung: Unterwegs nach Bangalore? 7 Internationale F&E in Grid Computing 12 Europ. Conference on Research and Adv. Technology for Digital Libraries 20
Praxis und Wissen Der „Schach-Türke“ 8 Prip-Preis 2004 14 Erlaubt ist, was Grenzen sprengt! 15 Roby vor – noch ein Tor 18 Das V-Modell 19 Europrix Top Talent Award 2004 26 Softwarepatente und E-Commerce 28
OCG aktuell Der vernetzte Egoist 10 gmds2004 in Innsbruck 11 Neuer IAPR-Präsident 21 Tracking & Tracing 24 RSS-Newsfeeds der OCG 27 IT Salon 29
Portrait Mag. Dr. Susanne Saminger 16 An Interview with Niklaus Wirth 22
ImpressumMedieninhaber und Herausgeber: Oesterreichische Computer Gesellschaft
Präsidentin: Univ.-Prof. Dr. Gabriele Kotsis
Generalsekretär: Eugen MühlvenzlWollzeile 1-3, 1010 Wien, Tel.: 01 / 512 02 35-0, Fax: 01 / 512 02 35-9
E-Mail: [email protected]; URL: www.ocg.at
Kontakt zur Redaktion: Mag. Christine Haas,01 / 512 02 35-51, [email protected]
Layout: Ulrike Haring, OVE-Medienzentrum Graz
Fotos: Archiv OCG, Autoren, Privatarchive
Druck: Ueberreuter Print & Digimedia
Gefördert durch das Bundesminis-terium für Verkehr, Innovation und Technologie.
Hinweis: Geschlechtsbezogene Aussa-gen in diesem Magazin sind auf Grund der Gleichstellung für beiderlei Ge-schlechter aufzufassen bzw. auszulegen.
Die Vortragenden Prof. Ernesto Della Salla (Teleporto Adriatico) und Henk van Maaren (CETIMA) bei der im November stattgefundenen Veranstaltung „Tracking and Tracing“ in der Wirtschaftskammer Österreich - Seite 24. (linkes Foto)
Dr. Ann Dünki führte ein Interview mit dem Schweizer Informatiker Prof. Dr. Niklaus Wirth. (rechtes Foto)
3Ausgabe 5/2004
Editorial
Liebe Leserinnen!Liebe Leser!
Univ.-Prof. Dr. Gabriele Kotsis
Welche Assoziationen weckt unser Titelbild bei Ih-
nen? Sehen Sie uns in einer Welt, der sich durch IT
und Vernetzung neue Möglichkeiten und Perspektiven er-
öffnen? Oder deutet das Kabel
mehr eine technologische Fes-
sel an, die sich immer enger um
uns zusammenzieht? In Science
Fiction Romanen wird meist die
letztgenannte Vision entwickelt,
wohl weil sich Schreckens-
szenarien besser vermarkten
lassen, aber vielleicht auch als
Warnung und Aufruf zu einem
kritischen Hinterfragen der Ge-
staltung unserer Zukunft.
In diesem Sinne ist auch Prof.
Maurers aktueller Roman und
sein Vortrag beim OCG Competence Circle (wir haben im
letzten Heft berichtet) zu interpretieren, in dem vor den Aus-
wirkungen einer steigenden Abhängigkeit von IT und der zu-
nehmenden Globalisierung gewarnt wird. Von der globalen
Vernetzung zur Vernetzung des Einzelnen führte uns Prof.
Günther im letzten Competence Circle und zeichnete das
Bild des „vernetzten Egoisten“. Lesen Sie dazu den Nach-
bericht in diesem Heft, der – so wie Günthers Buch zu dem
Thema – nicht werten möchte, sondern Trends und Entwick-
lungen aufzeigen und zur Diskussion anregen soll.
Noch zwei weitere Beiträge in diesem Heft sind dem
Fragenkomplex der Vernetzung und Globalisierung
gewidmet. In der Rubrik Forschung und Innovation berichten
wir über eine Diskussionsveranstaltung an der TU Wien, bei
der Fragen der Zukunft der europäischen IT-Forschung und
Industrie angesichts der Konkurrenz aus Niedriglohnländern
diskutiert wurden. Und auch die gmds2004 in Innsbruck, die
Jahrestagung der Deutschen Gesellschaft für Medizinische
Informatik, Biometrie und Epidemiologie, erstmals veran-
staltet gemeinsam mit den Schweizer und österreichischen
Schwestergesellschaften, stand unter dem Motto „koopera-
tive Versorgung – vernetzte Forschung – ubiquitäre Informa-
tion“ (siehe Bericht in der Rubrik OCG aktuell).
Talente zu fördern ist das Ziel des Multimedia Top Ta-
lent Award, und auch hier sind wir wieder beim Thema
Vernetzung. Reichlich Gelegenheit zum Kontakte knüpfen
und zum Ausbau des persönlichen Netzwerks gab es auf
der feierlichen Gala in Wien, bei der 23 Projekte aus ins-
gesamt 414 Einreichungen aus 29 Ländern ausgezeichnet
wurden. Österreich war nicht nur Gastgeberland, sondern
darf sich auch über einen heimischen Preisträger in der
Kategorie Mobile Content freuen.
Eigentlich lässt sich in fast allen Beiträgen ein „Netz-
werkbezug“ erkennen. Roboter jagen Bälle ins Netz,
Tracking und Tracing vernetzt die reale und die digitale
Welt, GRID Computing vernetzt die Computer dieser Welt
zur Steigerung der Rechenleistung, eine Gruppe von ös-
terreichischen Entwicklern und Anwendern ist wiederum in
diese weltweite Initiative über das Projekt AGRID vernetzt.
Lesen Sie mehr über GRID Projekte im Europäischen Raum
in diesem Heft oder online unter www.austriangrid.at.
RSS ist eines der vielen DBK (Dreibuchstabenkürzel),
die gerade im Bereich der Netzwerke so beliebt zu
sein scheinen, dass bald alle möglichen Permutationen
ausgereizt sein werden. Hinter dieser Abkürzung verbirgt
sich ein Standard zur Darstellung von Webinhalten, im
speziellen von Nachrichten, in maschinenlesbarer Form,
die über so genannte „Feeds“ zur Verfügung gestellt
werden. Mit gewissem Stolz darf ich sagen, dass hier
die OCG ihrer Rolle gerecht wird, neue Technologien
nicht nur vorzustellen, sondern auch selbst einzusetzen.
Lesen Sie mehr über RSS und unser Nachrichtenange-
bot in diesem Heft.
Ich wünsche Ihnen im Namen der Oesterreichi-
schen Computer Gesellschaft ein besinnliches
Weihnachtsfest und einen guten Start in das Neue Jahr, in
dem Sie die OCG hoffentlich weiterhin begleiten darf!
4JOURNAL
Forschung und Innovation
Agile Software EntwicklungDIPL.-ING. DR. MAXIMILIAN ERRATH, UNIV.-DOZ. ING. MMAG. DR. ANDREAS HOLZINGER,
UNIV.-PROF. DIPL.-ING. DR. WOLFGANG SLANY
Das „Agile Manifesto“ – der Beginn
Vom 11. bis 13. Februar 2001 trafen sich in
Utah 17 Personen: Kent Beck, Mike Beed-
le, Arie van Bennekum, Alistair Cockburn,
Ward Cunningham, Martin Fowler, James
Grenning, Jim Highsmith, Andrew Hunt,
Ron Jeffries, Jon Kern, Brian Marick, Ro-
bert C. Martin, Steve Mellor, Ken Schwa-
ber, Jeff Sutherland und Dave Thomas.
Diesen Leuten waren zwei Dinge gemein-
sam: Erstens hatten sie langjährige Erfah-
rung aus traditioneller Softwareentwick-
lung und zweitens einigten sie sich auf
vier grundlegende Basiskonzepte im Soft-
wareentwicklungsprozess. Die Konzepte
wurden im so genannten „Manifesto for
Agile Software Development“ festgelegt
„Softwareentwicklung kann die Erwartungen nicht erfüllen. Dieses Scheitern hat weitreichende Auswirkungen im geschäftlichen und menschlichen Bereich. Wir müssen einen neuen Weg finden, Software zu entwickeln”.
(Kent Beck, 2000)
Immer kürzere Entwicklungszyklen und sich rasch ändernde Anfor-derungen zeigen immer öfter die Schwächen klassischer Vorgehens-modelle bei der Softwareentwicklung. Agile Softwareentwicklung verspricht eine Verbesserung durch schlanke und kundenorientierte Vorgehensweisen. In Anlehnung an Extreme Usability im letzten Heft konzentrieren sich die Autoren in diesem Beitrag aufgrund des stei-genden Interesses an agilen Entwicklungsmethoden auf die Darstel-lung der grundlegenden Konzepte.
Die vier Basiskonzepte lauten im Original (siehe http://agilemanifesto.org):
We are uncovering better ways of developing software by doing it and helping others do it. Through this work we have come to value:
individuals and interactions over processes and tools. (Menschen und Zusam-menarbeit vor Prozessen und Werkzeugen)
working software over comprehensive documentation. (Funktionierende Software vor umfassender Dokumentation)
customer collaboration over contract negotiation. (Zusammenarbeit mit den Kun-den vor vertraglicher Vereinbarung)
responding to change over following a plan. (Reaktion auf Veränderung vor Ein-haltung eines Plans)
That is, while there is value in the items on the right, we value the items on the left more.
und von allen unterzeichnet (siehe: http://
agilemanifesto.org). Der einzige Einwand
„ …that most Americans do not know how
to pronounce the word ‘agile’ …“ kam von
Martin Fowler – einem Engländer.
Grundideen agiler Softwareentwicklung
Das wichtigste Prinzip agiler Softwareent-
wicklung ist es, Erfolge frühzeitig und fort-
laufend sichtbar zu machen. Die höchste
Priorität liegt in der Kundenzufriedenheit
durch funktionierende Software. Der Weg,
um den Erfolg zu maximieren, liegt in der
Einfachheit. Auf drei Grundregeln zusam-
mengefasst:
- wichtige Dinge zuerst umsetzen,
d. h. die Funktionalitäten mit dem
höchsten Mehrwert
- Geschäftswert = f (Kosten, Zeit,
Funktionalität, Qualität)
- Anpassung der Entwicklung bei Be-
darf an eine veränderte Umgebung.
Das Wort „agil“ stammt vom lateinischen
„agilis“ und bedeutet „leicht zu führen, be-
weglich, flink, gewandt, geschickt“. Das
soll ausdrücken, dass sich Entwickler,
die agile Methoden verwenden, flexibel in
einem schnell bewegenden Markt anpas-
sen, um aktuelle Probleme der Auftragge-
ber zu lösen. Entwicklung soll sich nicht
gegen Änderungen in den Anforderungen
wehren, sondern sich auf sie einstellen.
Team – Werkzeug – Prozess
Agile Entwicklung setzt drei Komponen-
ten voraus, um dieses Ziel zu erreichen:
Team – Werkzeug – Prozess. Erst ein rei-
bungsloses Zusammenspiel dieser drei
Komponenten macht agile Softwareent-
wicklung möglich. Dabei ist es zwar mög-
lich, Software ohne definierten Prozess
und vielleicht auch ohne Werkzeuge zu
entwickeln – es ist aber vollkommen un-
möglich, sie ohne ein qualifiziertes Team
zu entwickeln. Auch der beste Prozess
wird aus einer Gruppe von Chaoten kein
professionelles Team machen. Anderer-
seits zeigen professionelle Teams einen
hohen Grad an Selbstorganisation – so-
fern man die Herrschaft über die Arbeit
überlässt. In der Praxis ist es meist ein
„goldener Mittelweg“. Jedenfalls wird die
hohe „Planungssucht“ traditioneller Me-
thoden aufgegeben und ebenso wird die
Illusion aufgegeben, dass durch Kontrolle
5Ausgabe 5/2004
Forschung und Innovation
und klare Anweisungen ein Projekt ideal
steuerbar ist. Kreative Prozesse lassen
sich weder befehlen noch kontrollieren.
Daher lautet das Credo agiler Methoden
„Kontrolle ist gut – Vertrauen ist besser“.
Das aber setzt zwingend voraus, dass
das Team aus kompetenten und zuverläs-
sigen Mitgliedern besteht.
Einbindung des Auftragge-bers
Agile Methoden versuchen umfangreiche
Dokumentation durch direkte Kommuni-
kation im Team zu ersetzen. Lediglich dort,
wo Dokumentation für einen sicheren Be-
trieb notwendig ist, dort wird diese auch
erstellt. Dokumente werden nur erstellt,
wenn es keine bessere Möglichkeit zur
Kommunikation im Projektteam gibt. Auch
wird auf eine vollständige Spezifikation
verzichtet. Eine vollständige Spezifikation
eines Systems ist nämlich nicht nur extrem
schwierig, sondern auch zeitintensiv und
damit teuer. Die Erfahrung zeigt außerdem,
dass sich bei vielen Softwareprojekten die
Anforderungen während der Projektzeit
ändern. Die zentrale Methode eines agilen
Prozesses ist es, den Auftraggeber direkt
in das Team einzubinden. Allerdings ist
genau das auch der Knackpunkt agiler
Methoden: Oft fehlt ein Ansprechparter auf
Auftraggeberseite, der über die notwendi-
ge Kompetenz (Fachwissen und Entschei-
dungsbefugnisse) verfügt. Voraussetzung
für das Funktionieren agiler Methoden ist,
dass immer ein fachlicher Entscheidungs-
träger kurzfristig für Fragen zur Verfügung
stehen muss – sonst ist agiles Arbeiten
nicht durchführbar.
Reaktion auf Veränderung
Die Stärke agiler Methoden liegt in der (ra-
schen) Reaktionsmöglichkeit auf Verän-
derungen. Auch hier zeigt die Erfahrung,
dass kaum ein Projekt stets nach Plan
verläuft, und je detaillierter die Planung
erfolgte, umso schneller weichen Realität
und Planung voneinander ab.
Der Erfolg eines Projekts wird allerdings
sehr oft an der Übereinstimmung mit dem
Plan gemessen. Wer aber einen Plan ver-
folgt, tut das, was bei der Erstellung des
Plans für notwendig gehalten wurde, nicht
das, was zum gegenwärtigen Zeitpunkt
notwendig ist: „Wer in einem komplexen
System einen Plan verfolgt, erhält das Pro-
dukt, das er geplant hat, nicht das Produkt,
das er braucht“. (Highsmith, 2001) Natür-
lich wird in agilen Projekten geplant – aber
nur in dem Umfang, den Team und Auftrag-
geber benötigen. Highsmith (2001) geht
sogar so weit, diese nicht als „Pläne“ zu
bezeichnen, sondern als „Spekulationen“.
Adaptive Software Develop-ment, ASD
Adaptive Software Development (ASD)
entstand aus den Erfahrungen von Jim
Highsmith und geht zurück auf das Ra-
pid Application Development (RAD). Seit
1992 wurde ASD in über 100 Projekten
erfolgreich verwendet und schließlich als
Buch veröffentlicht (Highsmith, 2001).
ASD stellt die Regeln für die Zusammen-
arbeit zwischen Team, Kunden und Or-
ganisation dar und das Softwareprojekt
selbst wird als komplexes System gese-
hen. Nach der Theorie komplexer Syste-
me müsste ein Team umso flexibler sein,
je weniger Regeln bestehen. Auf der Su-
che nach dem minimalen Satz an Regeln
hat Highsmith den ASD-Lebenszyklus
entworfen: Nach einer Initialisierungs-
phase am Anfang, werden Zyklen von
Einige ausgewählte Beispiele agiler Methoden sind: Adaptive Software Development, ASD (Jim Highsmith), siehe: www.adaptivesd.
com
Crystal Methodologies, Effective Use Cases (Alistair Cockburn), siehe: http://alistair.cockburn.us/crystal
Feature Driven Development, FDD (Jeff De Luca, Peter Coad), siehe: www.featuredrivendevelopment.com
SCRUM (Ken Schaber, Mike Beedle, Jeff Sutherland geht zurück auf Ikujiro Nonaka und Hirotaka Takeuchi), siehe: www.controlchaos.com
eXtreme Programming, XP (Kent Beck, Ward Cunningham, Ron Jeffries), sie-he: www.extremeprogramming.org
so genannten Adaptive Cycle Plannings,
Concurrent Feature Developments und
Quality Reviews durchgeführt. Das Team
liefert, entsprechend einer Prioritätenliste
des Kunden, alle vier Wochen so viele
Features wie möglich. Am Ende jeder Ite-
ration teilt der Kunde dem Team mit, ob
die neue Version den erwarteten Mehrwert
bietet (Highsmith, 2001).
Crystal Methodologies
Bei den Crystal Methodologies handelt es
sich eigentlich nicht um einen Prozess, son-
dern um ein Framework. Alistair Cockburn
befragte dazu in den frühen 1990er-Jahren
Teammitglieder erfolgreicher Projekte, wel-
che Methoden und Techniken diese einge-
setzt hatten. Aus diesen Erfahrungen leitete
Cockburn die Erkenntnis ab, dass unter-
schiedliche Projekte völlig unterschiedliche
Prozesse benötigen. Als wesentlichen Bei-
trag ermöglicht der Ansatz von Cockburn
eine Klassifizierung von Projekten. Dazu
entwarf er eine Matrix, in der Projekte nach
verschiedenen Kriterien eingeordnet wer-
den können. Erkenntnis: Je geringer die
Größe des Teams ist, umso weniger Do-
kumente müssen verwendet werden. Je
kritischer das Softwareprojekt dagegen ist,
umso formaler müssen die Dokumente sein
(Cockburn, 2002), (Cockburn, 2003).
Feature Driven Development, FDD
Feature Driven Development (FDD) ent-
stand aus den Erfahrungen von Jeff De
6JOURNAL
Luca und Peter Coad Mitte der 1990er-
Jahre und wurde erfolgreich vor allem in
sehr großen Projekten verwendet. Nach
einer kurzen Initialisierungsphase wer-
den iterativ ausgewählte Anforderungen
geplant und umgesetzt. FDD wird da-
durch zu einer stark kundenorientierten
Methode mit kleinen Teilresultaten. Die
Größe eines Feature wird eingeschränkt
durch die Bedingung, dass ein Feature in
maximal zwei Wochen entwickelt werden
sollte. Sonst muss es so lange aufgeteilt
werden, bis diese Vorgabe erfüllt werden
kann (Palmer & Felsing, 2002).
Scrum
Scrum (der Name kommt aus dem Rug-
by) wird seit Anfang der 1990er-Jahre
von Ken Schwaber und Jeff Sutherland
in zahlreichen Projekten erfolgreich ein-
gesetzt. Bei Scrum werden die Anforde-
rungen in einem so genannten „Backlog“
vom Kunden für eine 30-tägige Iteration
(genannt Sprint) ausgewählt. Die Kon-
trolle über den Prozess erfolgt mit kurzen
täglichen Meetings (Sprint Planning) und
einer Demonstration nach dem Sprint
(Sprint Review Meeting). Das Sprint
Review Meeting wird als Retrospective
Meeting zur konsistenten Optimierung
analysiert. Scrum kennt dabei genau drei
Rollen: Software-Team, Product Owner
und Scrummaster. Der Product Owner
sortiert kontinuierlich den Product Back-
log und priorisiert damit die Anforderun-
gen. Das Team wählt aus dem Backlog
hochpriorisierte Anforderungen aus und
verpflichtet sich nach einer Aufwands-
abschätzung zu deren Umsetzung. Der
Scrummaster kontrolliert in täglichen
Arbeitssitzungen (Daily Scrum) den
Fortschritt der Arbeit. Seine Aufgabe ist
es auch, Hindernisse aus dem Weg zu
räumen und steuernd und fokussierend
einzugreifen (Schwaber & Beedle, 2001).
Scrum ist eher ein Projektmanagement-
Framework und kann mit verschiedenen
Techniken kombiniert werden.
Extreme Programming
Extreme Programming (eXtreme Pro-
gramming, XP) ist einer der bekanntesten
agilen Prozesse. Es beruht auf einem ein-
fachen System von Techniken und wurde
Mitte der 1990er-Jahre von Kent Beck,
Ward Cunningham und Ron Jeffries ent-
wickelt und erfolgreich eingesetzt. Es hat
sicherlich die größte Popularität erzielt
und daher wird in der Praxis XP oft mit
Agile Programming gleichgesetzt (Beck,
1999), (Beck, 2000). XP eignet sich her-
vorragend für die Kombination mit Usa-
bility Engineering Methoden (siehe dazu
den Artikel im letzten Heft, OCG Journal
4/2004, S. 16-18).
Zusammenfassung
Agile Methoden unterscheiden sich un-
tereinander ganz erheblich in Umfang
und Detaillierungstiefe. ASD, Scrum
und Crystal Methodologies sind eher
Meta-Prozesse. Ein erfahrenes Team
nutzt diese Prozesse als Rahmenbe-
dingungen für konkrete Projekte, ver-
zichtet aber auf detaillierte Vorgaben in
der täglichen Arbeit. XP und FDD sind
im Vergleich dazu konkrete, detaillierte
Verfahren.
Agile Softwareentwicklungsmethoden
sind nicht neu, sondern verwenden
Strategien und Methoden von ande-
ren Methoden – aber kombinieren
diese geschickt. Die Vorteile liegen
in der Schlankheit der Prozesse, der
Übersichtlichkeit und der Möglichkeit,
die Kundenwünsche umzusetzen. Die
Nachteile liegen in der Kollision des
stark iterativen Vorgehens mit der Lie-
ferung eines Produkts zu einem fixen
Preis, dem Fehlen der Ansprechpartner
auf Kundenseite, die über die notwen-
dige Kompetenz (Fachwissen und Ent-
scheidungsbefugnisse) verfügen muss
und dem praktischen Fehlen einer vom
Kunden unterzeichneten Anforderungs-
definition. Nicht jedes Projekt wird da-
her für die Anwendung agiler Methoden
geeignet sein; dennoch werden agile
Methoden in der Praxis immer wichtiger
werden. Die IT/Informatik an den Uni-
versitäten wird hier wichtige Beiträge
in Forschung und Lehre leisten, um die
Softwareingenieurinnen und Software-
ingenieure von heute bestmöglich auf
die Praxis von morgen vorzubereiten.
LiteraturAbrahamsson, P., Warsta, J., Siponen, M. T. & Ronkainen, J. (2003). New direc-tions on agile methods: a comparative analysis. Proceedings of the 25th IEEE International Conference on Software Engineering, Portland (OR), 244-254.
Beck, K. (1999). Extreme Programming Explained: Embracing Change, Boston (MA), Addison Wesley.
Beck, K. (2000). Extreme Programming: Die revolutionäre Methode für Software-entwicklung in kleinen Teams, München et al., Addison-Wesley.
Cockburn, A. (2002). Agile Software Development, Boston (MA), Addison Wesley.
Cockburn, A. (2003). Agile Software-Entwicklung, Bonn, MITP.
Highsmith, J. A. (2001). Adaptive Software Development. A Collaborative Approach to Managing Complex Systems, London, Dorset House Publishing Company.
Palmer, S. R. & Felsing, J. M. (2002). A Practical Guide to Feature Driven Deve-lopment, London, Prentice Hall.
Schwaber, K. & Beedle, M. (2001). Agile Software Development with SCRUM, London, Prentice Hall.
Forschung und Innovation
KontaktInstitut für Med. Informatik, Statistik und Dokumentation (IMI) Auenbruggerplatz 2/V, 8036 Graz [email protected] [email protected]
Institut für Softwaretechnologie (IST)Inffeldgasse 16b, 8010 [email protected]
7Ausgabe 5/2004
Forschung und Innovation
Softwareentwicklung und Informatikforschung: Unterwegs nach Bangalore?
DIPL.-ING. KARIN HRABY, AO. UNIV.-PROF. DR. EVA KÜHN
Fragen der Zukunft der europäischen IT-Industrie und der Informatik-forschung angesichts der Konkurrenz aus Niedriglohnländern standen beim jährlichen Treffen des Informatik Netzwerks der Fakultät für Infor-matik [IN:N] am 3. November im Festsaal der TU Wien im Mittelpunkt von zwei Vorträgen und einer anschließenden Podiumsdiskussion.
Nach der Begrüßung der mehr als 150 Teil-
nehmerInnen durch den Rektor der TU Wien
O. Univ.-Prof. Dr. Peter Skalicky und den De-
kan der Fakultät für Informatik Ao. Univ.-Prof.
Dr. Gerald Steinhardt stellte zunächst Ao.
Univ.-Prof. Dr. Eva Kühn als wissenschaftli-
che Koordinatorin des [IN:N] die Ziele des
Netzwerks vor: Intensivierung des Kontakts
zwischen der TU Wien und AbsolventInnen
sowie ehemaligen Studierenden, verstärkte
Kooperation mit Firmen sowie ein PostDoc-
Angebot zur Weiterbildung im Sinne eines
„life long learning“ (http://inn.tuwien.ac.at).
Erfahrungen aus Indien und ChinaDie eigens aus den USA bzw. China ange-
reisten Vortragenden Dr. Karl Kleissner und
Rudolf Siebenhofer berichteten von ihren
Erfahrungen aus USA/Indien respektive Ös-
terreich/China.
Kleissner (ehem. Senior Vice Presiden von
Ariba Inc.) betonte, dass die einzige Chan-
ce für die Universitäten bei diesem Spiel
zu gewinnen sei, sich auf globales Leader-
ship und Problemlösen zu konzentrieren;
für jede/n Einzelne/n, sich zu einem Leben
mit dauernder Weiterbildung zu bekennen.
Rudolf Siebenhofer (CEO von Siemens
PSE China) berichtete von den aktuellen
Veränderungen in China, die alle Lebensbe-
reiche von der Bildung bis zur Infrastruktur
betreffen. Siebenhofer erwartet, dass sich
das Potenzial junger Chinesischer Ingeni-
eure vermehrt auch in innovativen Berei-
chen zeigen wird: „Eine Welle von Patenten
zu neuesten Technologien rollt auf uns zu.
Dadurch werden auch Intellectual Proper-
ty Rights plötzlich viel ernster genommen.
Länder wie China werden in Zukunft auch
wesentlich mehr Gewicht in der Standardi-
sierung verlangen.“
Podiumsdiskussion mit Ex-pertenIn der anschließenden Podiumsdiskussion
berichtete Univ.-Doz. Dr. Jörg Flecker (Wis-
senschaftlicher Leiter der Forschungs- und
Beratungsstelle Arbeitswelt FORBA), dass
heute nicht nur einfache und lohnkos-
tensensible Tätigkeiten verlagert würden.
„Insgesamt zeigt sich, dass sich ohne die
spezifischen Rahmenbedingungen in der
zweiten Hälfte der 1990er-Jahre und ohne
die oft überzogenen Klagen über den
IT-Fachkräftemangel vermutlich die inter-
nationale Arbeitsteilung nicht so schnell
verschoben hätte und der Arbeitsmarkt in
Österreich heute von der Verbesserung der
wirtschaftlichen Lage der IT-Dienstleistun-
gen stärker profitieren könnte.“.
Nach Einschätzung von Univ.-Prof. Dr. Ge-
org Gottlob (TU Wien, Institut für Informa-
tionssysteme und Gründer von liXto Soft-
ware GmbH) ist die Informatikausbildung
in China gut ausgerichtet auf Programmie-
rung und Verwendung von Tools. Defizi-
te fänden sich bei Innovation in höheren
Studien wie etwa dem Doktorat. Dieses
Defizit würde jedoch schätzungsweise in
ca. sieben Jahren aufgeholt sein. Gottlob
sieht eine Chance in hochinnovativen Pro-
duktentwicklungen und darin, dass Dienst-
leistungen wegen des hohen Hintergrund-
wissens vor Ort nicht leicht ins Ausland
verlagert werden können.
Für Georg Obermeier (Geschäftsführer T-
Systems Austria GesmbH) besteht heute
die Herausforderung in einer weltweiten
Betreuung von Kunden, die nur vor Ort
durchgeführt werden könne. Zum Thema
Kosteneinsparung meinte Obermeier:
„Generell gilt, je größer das Projekt, umso
höher der Vorteil sowohl für den Kunden
als auch den Outsourcer“. Das Einspa-
KontaktDipl.-Ing. Karin HrabyÖffentlichkeitsarbeit, TU WienZentrum für Koordination & Kommunikation der Fakultät für InformatikFavoritenstr. 9/195, 1040 WienTel.: 01 / 588 01-183 [email protected], inn.tuwien.ac.at
rungspotential hänge natürlich auch von den Preis-
entwicklungen bei Lohnkosten und Infrastruktur ab.
Zentrale Erfolgsfaktoren seien ein gutes Service und
ein gutes Projektmanagement.
Univ.-Doz. Dr. Stefan Poledna (Geschäftsführer TT-
Tech Computertechnik AG) betonte, dass Europa in
Zukunft in der Informatik nur dann eine Rolle spielen
könne, wenn Ideen und Know-how systematisch ge-
sichert und industriell umgesetzt würden. Wichtig sei
für kleinere Firmen aus Europa, dass sie sich durch
technischen Vorsprung differenzieren und diesen z.
B. durch Patente absichern können.
(v.l.n.r) Dekan Ao. Univ.-Prof. Dr. Gerald Steinhardt,Dr. Karl Kleissner, Ao. Univ.-Prof. Dr. Eva Kühn
TU W
ien,
Fak
ultä
t für
Info
rmat
ik
Ehrung eines Absolventen der Fakultät für InformatikErstmals wurde heuer auch im Rahmen der [IN:N] Veranstaltung der Ehrentitel „Distinguished Alum-nus of the Faculty of Informatics“ verliehen. Den Titel erhielt Dr. Karl „Charly“ Kleissner. Nach Infor-matikstudium, Dissertation und Tätigkeit als Univer-sitätsassistent an der TU Wien ging Kleissner in die USA und machte dort Karriere: Nach dem Einstieg als Softwareentwickler bei großen amerikanischen Konzernen entwickelte er sich zum Experten für Projektmanagement und Teamleadership. Er trug maßgeblich zum Erfolg von namhaften Start-Ups wie Ariba, NeXT und RightPoint bei. Sein heutiges Engagement betrifft Projekte im Umfeld des sozia-len Unternehmertums.
8JOURNAL
Praxis und Wissen
Der „Schach-Türke“
Kempelens „Schach spielen-der Türke“
Der Hofkammerrat Wolfgang von Kem-
pelen bekleidete hohe Ämter in den
Diensten Maria Theresias und wirkte,
vielfältig gebildet, auch als Architekt,
Mechaniker und Wissenschaftler. Er be-
schäftigte sich unter anderem mit dem
Verhältnis zwischen Mensch und Ma-
schine, konstruierte eine Sprechmaschi-
ne und eine Blinden-Schreibmaschine,
aber auch einen Schach spie-
lenden „Automaten“. 1770
führte er dieses mechanische
Spielzeug am kaiserlichen Hof
vor: eine lebensgroße, hölzer-
ne Figur in türkischer Tracht,
die an einer Holzkommode
saß, auf der sich ein Schach-
brett befand. Eine komplexe
Mechanik aus Walzen, Hebeln
und Zahnrädern im Inneren
ließ die staunenden Zuschauer
glauben, die Holzpuppe sei in
der Lage, gegen menschliche
Gegner Schach zu spielen.
Vorgeblich per Federzug ange-
trieben, konnte sie Arme, Kopf
und Augen bewegen, und die
Schachfiguren am Brett führen.
Anders als die Automaten ihrer Zeit, die
bloß Bewegungen imitierten, schien die
Holzpuppe zu eigenständigem Denken
fähig. Was das Publikum bei Kempe-
lens Vorführung freilich nicht zu sehen
bekam, war der leibhaftige Mensch, der
im Inneren des Holzkastens verborgen
DIPL.-ING. DR. OTMAR MORITSCH / MAG. DR. WOLFGANG PENSOLD
kauerte, von unten das Schachbrett be-
obachtete und über eine komplizierte
mechanische Vorrichtung die Züge der
Puppe steuerte.
Kempelen erlangte mit seinem „Au-
tomaten“ alsbald Berühmtheit weit
über die Grenzen der Monarchie hin-
aus. 1783 reiste er nach Paris, wo er
seinen Schachspieler am königlichen
Hof in Versailles vorführte und gegen
Schachmeister antreten ließ. Dass der
„Automat“ mitunter eine Partie verlor,
tat seiner Attraktivität keinen Abbruch.
Es folgten Vorführungen vor größerem,
zahlendem Publikum, in weiterer Folge
auch in England, wo man durch franzö-
sische Zeitungsberichte aufmerksam
geworden war. Allerdings erhoben sich
seitens kritischer Aufklärer bald auch
Stimmen, die die Vorspiegelung fal-
scher Tatsachen vermuteten. Joseph
Friedrich zu Racknitz besuchte Vorstel-
lungen in Dresden und verfasste 1784
eine Abhandlung „Ueber den Schach-
spieler des Herrn von Kempelen“, in
der er von der Grundannahme ausging,
dass sich im Inneren des Kastens ein
kleinwüchsiger Mensch befinde, der die
Figur des Türken lenke.
Virtual Showcase
Heute, 200 Jahre nach Kempe-
lens Tod, sind Universalgelehr-
te seines Typs verschwunden.
An ihre Stelle sind hoch spezi-
alisierte Experten getreten, die
im Rahmen von internationalen
Forschungskooperationen ihre
Fachkenntnisse zugunsten des
wissenschaftlich-technischen
Fortschritts zusammenfließen
lassen. Geblieben sind der
Forschungsgegenstand und
die uralte Vision der techni-
schen Erweiterung menschli-
cher Möglichkeiten. Und wie
einst, ist es auch heute nicht
zuletzt die Begeisterung des
Publikums, die die Entwicklung – zumal
der Medientechnik – beflügelt.
Im Zeitraum zwischen 2001 und 2004
widmete sich ein im Rahmen des EU-
Forschungsprogramms Information
Society Technologies (IST) gefördertes
Der Kempelensche Schachspieler in virtueller Form (Bild: Techni-sches Museum Wien)
9Ausgabe 5/2004
Praxis und Wissen
Projekt der Entwicklung virtueller Vitri-
nen („Virtual Showcases“) zur Präsen-
tation von Objekten im Grenzbereich
zwischen Realität und Virtualität. Be-
teiligt waren Partner aus Deutschland
wie das Fraunhofer Institut für Com-
putergrafik, das Forschungszentrum
Informationstechnik GmbH sowie das
Deutsche Museum Bonn, weiters por-
tugiesische Partner wie das Centro de
Computação Gráfica, das Museu Dom
Diogo de Sousa und SINFIC, aus Ös-
terreich das Institut für Computergrafik
und Algorithmen der Technischen Uni-
versität Wien, die Abteilung Informati-
ons- und Kommunikationstechnik des
Technischen Museums Wien und die
Firma Imagination Computer Services
GesmbH sowie der belgische Projek-
torenhersteller BARCO.
Im Rahmen dieses Projekts entstand
für die medien.welten des Technischen
Museums Wien ein zeitgemäßes Re-
make des Kempelenschen Schach-
spielers als Multimedia-Installation.
Der Virtual Showcase ließ den Mitte
des 19. Jahrhunderts abgebrannten
„Schachautomaten“ in virtueller Form
wiedererstehen, seine interaktive Qua-
lität ermöglichte wie beim historischen
Vorbild echte Interaktion. Die mecha-
nische Holzpuppe wich einem Avatar,
die Faszination des Spiels gegen eine
Maschine blieb.
Der Schachspieler in den medien.welten
Die Installation, die mittlerweile einen
dauerhaften Platz in den medien.wel-
ten gefunden hat, offeriert den Ausstel-
lungsbesuchern ein Schachspiel mit
einer stereoskopisch projizierten Anima-
tion des „Schachautomaten“. Obwohl
Figuren und Brett lediglich Lichtpro-
jektionen sind, lässt sich damit wirklich
spielen. Ermöglicht wird dies durch zwei
Tracking-Kameras, die die Bewegungen
des Spielers registrieren und an den
Computer weiterleiten. Eine der Kame-
ras beobachtet seine Handbewegun-
gen und verfolgt seine Spielzüge, eine
zweite registriert seine Kopfbewegun-
gen und sorgt dafür, dass sich die proji-
zierte Szenerie stets seinem Blickwinkel
anpasst. Der Computer wiederum steu-
ert auf der Basis eines entsprechenden
Schachprogramms die Züge der Figur.
Die Faszination, die heute nicht mehr
der Mechanik, sondern der Digitaltech-
nik gilt, wurzelt zweifellos weniger darin,
eine Partie Schach zu spielen, als in der
Option, in einer virtuellen Realität mit
einer „intelligenten“ Maschine unmittel-
bar interagieren zu können. Allerdings
steckt auch dahinter kein Mysterium.
Denn, wie sich beim Original aus dem
18. Jahrhundert in der Kiste ein Schach-
spieler aus Fleisch und Blut verborgen
hat, so verbergen sich hinter der mo-
dernen Variante Computer und Projek-
tor. Und in gewisser Weise sitzt auch
heute noch ein Mensch in der Kiste
– ein Programmierer, der dem Compu-
ter die nötige „Intelligenz“ gegeben hat.
Die Vision der selbstständig denkenden
Maschine bleibt auch heute unerreicht.
Dennoch erfüllt die Installation eine be-
deutende Funktion im Rahmen der me-
dien.welten. Sie führt die Besucher in
spielerischer Weise an die Grenze der
virtuellen, dreidimensional projizierten
und interaktiv benutzbaren Medienwelt
heran, die unser Dasein künftig – nicht
nur zu Unterhaltungszwecken – zuneh-
mend stärker prägen wird.
Nach Fertigstellung der Installation
wurde ihr im September 2004 auch of-
fizielle Anerkennung zuteil. Im Rahmen
des Staatspreises für Multimedia und
E-Business erhielt sie den Preis des
Siegers in der Kategorie Kultur und E-
Entertainment.
KontaktDipl.-Ing. Dr. Otmar MoritschTechnisches Museum Wien, Bereich Information und KommunikationMariahilfer Str. 212, 1140 WienTel.: 01 / 899 98-2200Fax: 01 / 899 [email protected]
Frühe Abbildung des Kempelenschen Schachspielers (Bild: Österreichische Nationalbibliothek)
10JOURNAL
OCG aktuell
Der vernetzte Egoist
Einflussfaktor „Medientechnik“Technik greift in alle Lebensbereiche ein.
Nicht nur in wirtschaftsorientierte, son-
dern auch in Bildung und Kunst.
Die Frage ist:
Beeinflusst die Technik den Menschen,
oder nützt der Mensch die Technik als
Werkzeug?
In jedem Fall beeinflusst die Technik uns
und unser Leben. Die Kommunikations-
und Medientechnik ist Triebkraft für zu-
nehmenden Egoismus. Sie unterstreicht,
dass der Mensch alles hier, jetzt und so-
fort haben will.
Der vernetzte Egoist will immer Erster
sein.
Das Telefon war eine Generation früher
noch ein Instrument, das geteilt werden
musste. In der Familie, im Haushalt gab es
– wenn überhaupt – einen Telefonapparat.
Im Büro teilten sich mehrere Mitarbeiter
ein Telefon. Heute hat jeder sein eigenes
Telefon. Niemand würde sein Mobiltelefon
mit einem Kollegen oder einem anderen
Familienmitglied teilen.
Ähnlich verhält es sich auch mit anderen
Medien; mit dem Fernsehen, dem Radio-
hören und der Verwendung des Compu-
ters, der zum persönlichen Device wurde.
Machen elektronische Medien einsam?Eine oft und lange abgehandelte Frage. Alle
Arbeiter zu Hause vereinsamen, und Grup-
penarbeit geht verloren. Hingegen entsteht
eine neue Form der Zusammenarbeit, die in-
PROF. DR. JOHANN GÜNTHER
Wird die Technik den Menschen ersetzen?Wird sie ihm Hilfsmittel oder Joch sein?Werkzeuge sollen dem Menschen das Leben leichter machen. Tech-nik, die kein Werkzeug ist, ist Spielzeug und nutzlos für das tägliche Leben. Technik ist Ergänzung und Erweiterung des Menschen. Sie stärkt ihn und macht ihn unabhängiger.
ternationaler ist. Virtuelle Arbeitsgruppen im
Internet haben keine Grenzen und bringen
Menschen aus vielen Ländern zusammen.
Der Mensch befriedigt damit sein Fern-
weh. Das Arbeiten am Wohnort bzw. in
der eigenen Wohnung, im eigenen Haus
ist im Grunde genommen nicht neu, son-
dern in den letzten 150 Jahren verloren
gegangen. Vor der Industrialisierung wa-
ren Wohn- und Arbeitsplatz ident.
Die Familie ist ein gutes Beispiel dafür,
wie „vernetzte Egoisten“ heranwachsen.
Jeder geht individuell seiner Beschäfti-
gung nach. Schon das Kleinkind geht
in „seinen“ Kindergarten, wie die Eltern
jeweils in „ihr“ Büro. Abends kommt man
zum Schlafen zusammen. Auf Grund der
Individualisierung der Freizeit, wird auch
die „gemeinsame Schlafzeit“ geringer.
Die Familie zerfällt in zusammenlebende
Individualisten.
Die Zeitachse zerfällt. Öffnungszeiten
von Geschäften werden ausgedehnt und
via Internet kann 24 Stunden pro Tag ein-
gekauft werden. E-Government erlaubt
es dem Bürger, zu jeder Tageszeit einen
„Behördenweg“ zu erledigen. „E-Lear-
ning“ macht das Lernen unabhängig von
Unterrichtszeiten und Telearbeit hat keine
fixen Bürozeiten mehr. Der Mensch ver-
liert fixe Anhaltspunkte auf der Zeitachse.
Er hat so viele Freiheiten, dass es immer
schwerer wird, sich zu orientieren. Der
Mensch als Individuum wird neue Um-
gangsformen mit diesem – im Vergleich
zu traditionellen Einteilungen – chaoti-
schen Ablauf finden.
Der unabhängige WissensarbeiterMenschen müssen mit Unsicherheitsfak-
toren leben. In Umständen des persön-
lichen „Überlebens“ werden egoistische
Eigenschaften in den Vordergrund treten
ohne jedoch auf ein Netzwerk, auf die Hil-
fe anderer, die aber oberflächlich ist, zu
verzichten.
Technik ist dazu ein Hilfsmittel. Sie er-
leichtert das Leben.
Die ersten Menschen hatten alle Hand-
fertigkeiten. Alle konnten alles. Erst in
späterer Folge kam es zur Spezialisie-
rung und damit zur Arbeitsteilung. Grup-
penarbeit war notwendig.
Im Bereich der Wissensarbeit gibt es ei-
nen Trend, der weg von der gruppendy-
namischen Arbeit geht. Computer stellen
jedem alles zur Verfügung. Der Einzelne
ist nicht mehr von anderen abhängig.
Er kann eine Datenbank befragen. Der
Einzelne hat so wie der Höhlenmensch
wieder alle Fertigkeiten; zumindest was
die Wissensverarbeitung betrifft, und die
stellt den Großteil der heutigen Arbeit dar.
Der Mensch kann heute unabhängig von
anderen alleine arbeiten.
IKT verändert den Menschen
KontaktProf. Dr. Johann GüntherFachhochschule St. PöltenHerzogenburgerstr. 683100 St. PöltenTel.: 02742 / 313228 [email protected]
11Ausgabe 5/2004
OCG aktuell
gmds2004 in Innsbruck Kooperative Versorgung – Vernetzte Forschung – Ubiquitäre Information
Chancen durch Medizinische Informatik, Biometrie und EpidemiologieASS.-PROF. DR. ELSKE AMMENWERTH
Vom 26. – 30. September 2004 fand in
Innsbruck die 49. gmds-Jahrestagung (www.
gmds2004.de) statt, welche das erste Mal
als Dreiländer-Tagung gemeinsam veranstal-
tet von der gmds, der Schweizerischen Ge-
sellschaft für Medizinische Informatik (SGMI)
und dem Arbeitskreis Medizinische Informatik
(ÖAKMI) der Oesterreichischen Computer
Gesellschaft (OCG) und der Österreichischen
Gesellschaft für Biomedizinische Technik
(ÖGBMT) über die Bühne ging. Die lokale Or-
ganisation wurde von der 2001 neu eröffneten
Privaten Universität für Gesundheitswissen-
schaften, Medizinische Informatik und Technik
(UMIT; www.umit.at) übernommen.
Nach einführenden Tutorien umfasste das
Kernprogramm ca. 180 wissenschaftliche
Beiträge sowie ca. 80 Posterbeiträge aus den
Bereichen Medizinische Informatik, Biometrie,
Epidemiologie und Medizinische Dokumenta-
tion. In Satellitensymposien wurden die The-
men Gesundheitsmanagement, Pflegeinfor-
matik und Medizinische Dokumentation weiter
vertieft. 23 Aussteller und Sponsoren unter-
stützten die Tagung. An allen Veranstaltungen
zusammen nahmen ca. 800 Teilnehmer aus
Wissenschaft, IT- und Pharmaindustrie, aus
Gesundheitseinrichtungen, Ministerien und
Behören teil.
Als Leitthema dieses Jahr wurde „Kooperati-
ve Versorgung – Vernetzte Forschung – Ubi-
quitäre Information“ gewählt. Entsprechend
standen diese Themen im Vordergrund der
wissenschaftlichen Vorträge. So wurden die
Potentiale und Grenzen kollaborativer Versor-
gungskonzepte und die hierfür notwendige
IT-Unterstützung ebenso diskutiert wie der
Übergang elektronischer Patientenakten in
elektronische Gesundheitsakte. Die Bedeu-
tung dieses Themas spiegelt sich auch in
entsprechenden politischen Initiativen wieder
(z. B. bit4health in Deutschland, E-Card in
Österreich). Die Integration der IT-Kompo-
nenten stellt sich dabei als eine der zentralen
technischen Herausforderungen dar.
Andere Beiträge betrachteten Ansätze zur
Evaluation von Informationssystemen – IT-
Investitionen müssen, um gerechtfertigt wer-
den zu können, zu messbaren positiven
Auswirkungen auf Effizienz und Effektivität
der Patientenversorgung führen. Ein weite-
rer Schwerpunkt war das Thema Prozess-
management und Prozessoptimierung im
Gesundheitswesen. IT-Systeme im Gesund-
heitswesen können heute nicht mehr isoliert
von den komplexen sozio-organisatorischen
Rahmenbedingungen betrachtet werden.
Die Einführung von IT-Systemen kann nur als
Teil einer umfassenderen Prozessoptimie-
rung verstanden werden. Schließlich wurde
das Thema Wissensmanagement sowie
klinische Leitlinien in mehreren Sitzungen
aufgegriffen. Der Versuch, klinisches Wissen
rechnergestützt so verfügbar zu machen,
dass es unmittelbar in die Entscheidungs-
findung einbezogen werden kann, stellt sich
weiterhin als Herausforderung dar.
Ein Highlight der gmds-Tagung 2004 war
die hochkarätig und international besetzte
Podiumsdiskussion zum Leitthema der Ta-
gung: „Kooperative Versorgung, vernetzte
Forschung, ubiquitäre Information: Besse-
re Gesundheitsversorgung durch intensive
Nutzung von Informations- und Kommuni-
kationstechnologie?“. Referenten waren u.
a. Prof. Marion Ball (ehem. IMIA Präsidentin,
Baltimore), Dr. Martin Denz (SGMI-Präsident,
Bern), Prof. Ehrich Reinhardt (Vorstand Sie-
mens Medical Solutions, Erlangen) und Prof.
Jan H. van Bemmel (ehem. Rektor der Eras-
mus-Universität Rotterdam). Alle Teilnehmer
betonten die große Bedeutung von Metho-
den und Werkzeugen der Informatik für die
Aufrechterhaltung einer qualitativ hochwerti-
gen Patientenversorgung auch in Zukunft.
Ein weiteres besonderes Highlight dieses
Jahr war wieder die Clinical Documentation
Challenge (CDC). Fünf Top-Anbieter von KIS-
Lösungen präsentierten hier ihre Produkte
anhand eines vorgegebenen standardisier-
ten realitätsnahen Szenarios. Der Schwer-
punkt der CDC 2004 lag auf der Abbildung
klinischer Behandlungspfade in den jeweiligen
Produkten. Sie bot damit die einmalige Möglich-
keit, die verschiedenen Produkte einmal direkt
unter vergleichbaren Bedingungen kennen ler-
nen zu können.
Eine weitere Besonderheit der gmds2004 war
der Akademische Festakt, bei dem Dr. Donald
Lindberg, Direktor der National Library of Me-
dicine (NLM) der USA, geehrt wurde. Er erhielt
die Ehrendoktorwürde der UMIT. Dr. Lindberg ist
seit 1984 Leiter der National Library of Medicine,
des wohl größten und bedeutendsten medizi-
nischen Informationszentrums der Welt. Unter
seiner Leitung ist es gelungen, mittels moderner
Informations- und Kommunikationstechnologie
umfassendes, aktuelles, qualitativ hochwertiges
medizinisches Wissen weltweit frei und in einfach
zu nutzender Weise zugänglich zu machen. Der
Akademische Festakt fand im neuen Campus
der UMIT in Hall bei Innsbruck statt.
Ca. 700 Teilnehmer haben die gmds2004 be-
sucht. Der Abstract-Band zur gmds2004 ist
im videel Verlag, Niebüll erschienen (ISBN
3-89906750-9), die Beiträge sind auch elek-
tronisch unter www.egms.de abrufbar. Es ist
geplant, dass ausgewählte Arbeiten in engli-
scher Sprache in „Methods of Information in
Medicine“ erscheinen werden.
KontaktAss.-Prof. Dr. Elske AmmenwerthInstitut für Informationssysteme des GesundheitswesensUMIT – Private Universität für Gesundheits-wissenschaften, Medizinische Informatik und TechnikEduard Wallnöfer-Zentrum 1, 6060 HallTel: 050 / 8648-3809 [email protected]
Industrieausstellung und Kontakte
12JOURNAL
Forschung und Innovation
Internationale F&E in
Grid ComputingDR. WILLY WEISZ, PROF. DIPL.-ING. GÜNTER KOCH
Die Entwicklung sehr leistungsstarker Netzwerktechnologien gekop-pelt mit dem drastischen Preisverfall der dazu notwendigen Kom-ponenten eröffnet neue Kooperationsmodelle zwischen Rechnern und mit elektronisch gesteuerten Werkzeugen über weite Distanzen hinweg. Dieses Zusammenwirken hat aber auch die Begrenzung ko-operierender EDV-Systeme auf jeweils nur eine Trägerorganisation gesprengt.
Grid Computing erfordert neue OrganisationsformenVersucht man, elektronisch gesteuerte
Geräte über Organisationsgrenzen hin-
weg zu verknüpfen, so muss man auch
die dazu notwendigen organisatorischen
Randbedingungen schaffen. Im Bereich
der Datenverarbeitung spricht man dabei
von Grid Computing. Aufbauend auf die
Software-Entwicklungen des Einsatzes
kooperierender Rechner innerhalb einer
Organisation mit zentraler EDV-Verwal-
tung, dem Cluster Computing, wurden
– und werden immer noch – Konzepte,
Org- und Software entwickelt, um die
drei Grundprinzipien des Grid Compu-
ting, die es von seinem Vorgänger unter-
scheiden, zu realisieren:
(1) die Koordination von Betriebsmit-
teln, die nicht zentral verwaltet wer-
den
(2) unter Verwendung genormter, offe-
ner, allgemein nutzbarer Protokolle
und Schnittstellen, um
(3) eine nicht unbedeutende Dienst-
leistungsgüte (quality of service) zu
erbringen (Ian Foster, Juli 2002).
Die Grundvoraussetzung hierfür ist die
Schaffung von virtuellen Organisationen,
in denen sich in zeitlich ändernder Zu-
sammensetzung Partnerschaften bilden,
die über Dienstleistungsverträge und Ab-
rechnung EDV-Leistungen erbringen und
konsumieren. Um die Leistungsverträge
einhalten zu können, muss dynamisch
durch Programme die Verwendung von
gerade vorhandenen Ressourcen konti-
nuierlich „ausgehandelt“ werden.
Internationale Forschung und EntwicklungNach den ersten Erfolg versprechenden
Entwicklungen von Werkzeugen, um ex-
perimentelle Grid-Umgebungen, meist
im akademischen Umfeld, zu schaffen,
hat auch die Wirtschaft begonnen, sich
für Grid Computing zu interessieren. Der-
zeit wird in einer großen Zahl von natio-
nalen und internationalen Projekten und
Initiativen versucht, systematisch alle
organisatorischen und programmtech-
nischen Voraussetzungen für das Grid
Computing als zukünftige Infrastruktur
zu schaffen, die es einem Nutzer ermög-
lichen wird, über eine standardmäßig
grafische Schnittstelle transparent und
in der Ausdrucksweise seines Anwen-
dungsgebiets (gleichgültig, ob Ingenieur,
Wissenschaftler oder Verwaltungskraft)
auf die verteilten, inhomogenen Ressour-
cen (= Datenbestände und Programme)
zuzugreifen, ohne wissen zu müssen,
wo diese lokalisiert und aufzufinden sind.
Auch das Auffinden und Aushandeln der
optimalen Betriebsmittel im Rahmen eines
vorgegebenen Budgets geschieht mittels
Grid-Komponenten. Selbst auf traditionel-
le Produkte/Services, die nicht auf Grid
Computing umgestellt werden können,
muss man nicht verzichten, da Hüllenpro-
gramme (so genannte „Wrapper“) entwi-
ckelt werden, über die auch diese „Altsys-
teme“ einbezogen werden können.
Die Anerkennung der Bedeutung die-
ses Ansatzes kann man daraus er-
Abb. 1: Gesamtarchitektur in Form eines Schichtenmodells der in der Grid-Forschung wichtigsten Themen und (wissenschaftlichen) Anwendungen
13Ausgabe 5/2004
Forschung und Innovation
KontaktDr. Willy WeiszVCPC, Institut für Softwarewissenschaft der Universität WienNordbergstr. 15/C312, 1090 [email protected]
Prof. Dipl.-Ing. Günter KochDonau-Universität Kremsexecupery @ TechGateDonau-City-Str. 1, 1220 [email protected]
Drei wesentliche Grid-Projekte sollen hier vorgestellt werden:
CoreGRID, ein Network of Excellence unter der Führung von ERCIM über deren Ge-schäftsstelle bei der INRIA, Frankreich, mit einem Fördervolumen von 8,2 Mio. Euro, mit 119 involvierten Forschern in 42 Instituten. In dieses Projekt, in dem es um die Schaffung einer Wissens- und Exzellenzplattform auf dem Gebiet des Grid Compu-ting geht, ist Österreich nicht offiziell, jedoch informell einbezogen. Interessant ist die Formung folgender virtueller, weil nicht rechtsförmiger „Institute auf Zeit“, die sich als überorganisatorische Kompetenzzentren zu folgenden sechs Themen sehen:- Wissens- und Datenmanagement- Programmiermodelle- Systemarchitekturen- Grid Informations- und Monitorierungsdienste- Ressourcenmanagement und Scheduling-Dienste- Umgebungen zum Probelmlösen, für Werkzeuge und Grid-SystemeIn vier Jahren sollen diese sechs Institute – untereinander abgestimmt – u. a. ein gemeinsames Grid-Testbett, eine gemeinsame Grid-Infrastruktur als das Grid-Labor in Europa und einen gemeinsamen Managementrahmen schaffen, innerhalb dessen Nachwuchswissenschaftler kollaborativ arbeiten können.
GridCoord kann als komplementäres Projekt zu GridCore gesehen werden. Es ist eine „Special Support Action“ und dient eher zur Sicherstellung, dass die vielfältigen Grid-Aktivitäten in Europa, wie sie von verschiedenen Förderern unterstützt werden, zusammen harmonieren. Politisches Ziel ist es, mittels Roadmapping und strategi-scher Ausrichtung Europa die Führerschaft auf dem Gebiet der Grid-F&E zu ver-schaffen. GridCoord schätzt das Volumen an Forschungsmitteln, die via dieser Spe-zialmaßnahme verbunden sind, auf bis zu 500 Mio. Euro. GridCoord selbst verfügt über ein Budget von ca. 1 Mio. Euro und hat seine Geschäftsstelle an der Universität von Pisa ([email protected]).Die Hauptaufgaben von GridCoord sind:- Die verschiedenen Grid-Förderstellen miteinander zu koordinieren- Verbindungen zwischen einzelnen Forschungseinrichtungen und Forschern herzu-
stellen,- eine visionäre Forschungsagenda aufzustellen.
Zu diesen Zwecken wurden folgende konkrete Ziele vereinbart:- Erstellung eines Kompendiums aller Grid-Forschung in Europa auf europäischen
und nationalen Niveaus,- ein Muster gemeinsamer Grid-Forschungsinteressen so zu identifizieren, dass
zwischen den einzelnen Forschern Synergien unter Vermeidung doppelter For-schung hergestellt werden können,
- Organisation von halbjährlichen Treffen zwischen den Akteuren der Grid-Forschung,- Durchführung spezialisierter Workshops,- Förderung von Informationsverteilung sowie Bildungs- und Weiterbildungsveran-
staltungen,- Beobachtung und Berichterstattung zu Standardisierungen, die für die Grid-
Technologie wichtig sind,- Entwicklung von Roadmaps, beginnend mit Visionen und daraus resultieren-
den Strategien zum Grid-Computing, wie auch Schlussfolgerungen für zukünf-tige Forschungsagenden.
Ein drittes, italienisches Projekt mit internationaler Bedeutung namens Grid.it (www.grid.it), das strategischen Charakter hat, soll hier deshalb besonders erwähnt wer-den, weil dieses sich eher auf Grid-Applikationen konzentriert und damit die Fantasie über zukünftige Grid-Anwendungen und die daraus ableitbaren Anforderungen an Eigenschaften von Grid-Infrastrukturen zum Ziel hat. Abb.1 ist der Projektbeschrei-bung von Grid.it entnommen und vermittelt das Bild einer Gesamtarchitektur in Form eines Schichtenmodells der in der Grid-Forschung wichtigsten Themen und (wissen-schaftlichen) Anwendungen.
kennen, dass Entwicklungen von Grid
Computing in fast allen Industrie-
staaten großzügig mit bis zu zweistelligen
Millionen-Euro-Beträgen pro Jahr geför-
dert werden. Grid-Computing ist auch
ein Schwerpunkt im laufenden 6. Rah-
menprogramm der IST-Förderung der
Europäischen Kommisssion, und wird es
auch im 7. Rahmenprogramm bleiben.
Mit - sogar relativ gesehen - deutlich ge-
ringeren Mitteln wird auch in Österreich
die Grid-Entwicklung von der öffentlichen
Hand gefördert wie z.B. im Projekt „Aus-
trian Grid“ durch das bm:bwk und im
Rahmen des Sonderforschungsbereichs
AURORA durch den FWF.
Projekte und Anwendungen der europäischen Grid Com-puting-Forschung Die EU-Kommission hat eine eigen-
ständige und dauerhafte Abteilung für
Grid-Forschungsprojekte eingerichtet
(www.cordis.lu/ist/grids/index.htm), die
unter der Leitung von Herrn Wolfgang
Boch steht. Als Hauptakteure in der
Forschung erweisen sich Mitgliedsor-
ganisationen des European Consortium
in Informatics & Mathematics ERCIM
(www.ercim.org), an dem Österreich via
Austrian Association for Research in IT
(AARIT) als Teilverein der OCG partizi-
piert. Das starke Interesse der ERCIM-
Mitlieder ist ein Grund, warum z. B. der
aktuelle Schwerpunkt der kostenfrei
erhältlichen ERCIM-Zeitschrift „ERCIM-
News“ dem Thema Grid Computing
gewidmet ist. (www.ercim.org/publica-
tion/Ercim_News/enw59).
14JOURNAL
Prip-Preis 2004
Die Preisträger werden in einem
zweistufigen Verfahren ermittelt:
1. Qualifikation durch Absol-
vierung von PRIP-Lehrveranstaltungen.
2. Präsentation einer eigenen Arbeit vor
einer Preisjury.
Von den qualifizierten KandidatInnen
werden die Bestgereihten eingeladen,
einen Vortrag über eine eigene Arbeit (z.
B. Praktikum, Diplomarbeit) aus dem Ge-
biet der Mustererkennung und Bildverar-
beitung vor einer Jury zu halten. Die Jury
setzt sich aus Lehrpersonal und Reprä-
sentantInnen der Sponsoren zusammen
und trifft im Anschluss an die Präsenta-
tionen die Entscheidung über die Preis-
vergabe. Die Entscheidungskriterien sind
unter anderem:
Eigenständigkeit der Umsetzung
Systematische Aufbereitung
Motivation und Begründung des ge-
wählten Lösungswegs
Der Preis war zuletzt mit 2.200 Euro do-
tiert und wurde heuer von den Firmen
Siemens AG, GELDSERVICE AUSTRIA
GmbH, OCG Oesterreichische Computer
Gesellschaft und dem Österreichischen
Forschungszentrum Seibersdorf gespon-
sert.
Dieses Jahr erging der Preis an Hubert
Mara für seine Arbeit mit dem Titel „Just-
In-Time Documentation of Archaeological
Fragments using 3D-Scanning Technolo-
gies“.
Bei archäologischen Ausgrabungen wer-
den tausende Scherben von Tongefäßen
gefunden. Eine dieser Ausgrabungen ist
das antike Dor in Israel. Die Archäologen
fertigen Handzeichnungen der Tonscher-
ben für ihre Publikationen an. Parallel dazu
verwenden sie auch einen so genannten
Profilographen. Sowohl die Handzeich-
nungen wie auch der Profilograph erfas-
sen die Profillinie, welche als Grundlage
für die Klassifikation und weiterführende
Untersuchungen der Funde dient.
Der Arbeitsbereich Bildverarbeitung und
Mustererkennung (PRIP) der TU Wien
beschäftigt sich intensiv mit Anwendun-
gen der 3D-Technik in der Archäologie.
Hubert Mara:„In unserer bisherigen Ar-
beit haben wir ein automatisches System
vorgestellt, welches die Scherben mittels
3D-Scanner erfasst. Um unser System
zu testen und mit den existierenden Ver-
fahren zu vergleichen, habe ich im Som-
mer 2004 im Rahmen meiner Diplomar-
beit an der Ausgrabungssaison in Dor,
Israel, teilgenommen. Dabei wurden die
Genauigkeit und der Zeitaufwand aller
UNIV.-ASS. DIPL.-ING. DR.TECHN. MARTIN KAMPEL
Der PRIP-Preis wird jedes Studienjahr vom Institut für rechnerge-stützte Automation 183/2 (PRIP) der Technischen Universität (TU) Wien für hervorragende Leistungen auf dem Gebiet der Musterer-kennung und Bildverarbeitung an Studierende des Bakkalaureats- bzw. Magisterstudiums der Informatik der TU Wien vergeben.
Praxis und Wissen
Prip-Preis-Jury: (v.l.n.r.) O. Univ.-Prof. Dipl.-Ing. Dr.techn. Walter Kropatsch, PRIP-Preis-Gewinner Hubert Mara, Eugen Mühlvenzl, Dr. Reinhold Huber-Mörk, Mag.rer.nat. Michael Hofer, Dekan Ao. Univ.-Prof. Dr.phil. Gerald Steinhardt, Ao. Univ.-Prof. Dipl.-Ing. Dr.techn. Robert Sablatnig
Arbeitsschritte der drei Systeme (Hand-
zeichnung, Profilograph, 3D-Scanner)
aufgezeichnet und verglichen.
Basierend auf diesen Aufzeichnungen
konnte ich die Anzahl der mit unserem
System vermessenen Scherben um einen
Faktor 5 steigern und Vorschläge zur künf-
tigen, weiteren Verbesserung machen.
Weiters konnte ich in meiner Arbeit zeigen,
dass wir die 5- bis 10-fache Menge an
Tonscherben pro Stunde vermessen kön-
nen als mit den beiden herkömmlichen
Methoden. Zusätzlich wurden noch me-
thodische Experimente zur Untersuchung
der Fertigung von Tonscherben und Analy-
se von Malereien auf den Scherben durch-
geführt und vorgestellt.“
Der PRIP-Preis wird auch im Jahr 2005
wieder vergeben.
KontaktUniv.-Ass. Dipl.-Ing. Dr.techn. Martin KampelTechnische Universität WienInstitut für Rechnergestützte AutomationFavoritenstr. 9-183/2, 1040 WienTel.: 01 / 58801 [email protected]
15Ausgabe 5/2004
Praxis und Wissen
Erlaubt ist, was Grenzen sprengt!DIPL.-ING. ANDREAS SCHABUS
Unter dem Motto “Imagine a world
where technology dissolves the
boundaries between us” veran-
staltet Microsoft bereits zum dritten Mal
den Imagine Cup. Dieser weltweite Wettbe-
werb richtet sich an Schüler (14 - 18 Jahre)
und Studenten, die Spaß an der Arbeit mit
Technologien haben und ihre technischen
und kreativen Fähigkeiten mit Kollegen
aus aller Welt messen wollen. Die Besten
werden im Sommer 2005 nach Yokohama
eingeladen, um in neun Kategorien um at-
traktive Preisgelder (je nach Kategorie bis
zu US$ 25.000,-) zu kämpfen.
Zusätzlich zum eigentlichen Wettbewerb
soll dort auch die Möglichkeit geboten
werden, Ideen über Landesgrenzen hin-
weg auszutauschen und internationale
Netzwerke zu bilden. Um auch die In-
dustrie in diese Netzwerke einzubinden,
wurden die bisherigen Finali jeweils im
Rahmen einer TechEd – eine der großen
technischen Microsoft Konferenzen – in
unterschiedlichen Kontinenten durchge-
führt. Und so ist nach Spanien (Barcelo-
na) und Brasilen (Sao Paulo) 2005 Japan
(Yokohama) an der Reihe, das weltweite
Finale auszurichten.
Den unterschiedlichen Interessen der Teil-
nehmer entsprechend, wird der Wettbewerb
in den folgenden Kategorien durchgeführt:
Software DesignIn dieser Kategorie geht es darum, innovati-
ve Applikationen auf Basis von .NET zu ent-
wickeln, die Grenzen überwinden können.
Im Rahmen der Vorrunden wird ein Team
aus der Region Schweiz und Österreich
ermittelt, das dann zum internationalen
Finale entsandt wird. Die Details dieser
Vorausscheidung finden sich unter:
http://de.theSpoke.net/Schweiz.
Office DesignBeim Office Design ist eine auf Office ba-
sierende Lösung zu entwickeln, die ein
praktisches Problem des alltäglichen Le-
bens löst.
Technology Business-PlanIn dieser Kategorie sollen innovative Ge-
schäftsideen in einen fundierten und zu-
kunftsträchtigen Business Plan gebracht
werden.
AlgorithmusHier geht es um „brain teasers“, „coding
challenges“ und algorithmische Puzzles
sowie darum, das smarteste „Technology-
Brain“ zu finden.
RenderingDurch die Kombination von kreativen und
technischen Fähigkeiten soll eine „3D-Ge-
schichte” das Thema „Grenzen überwin-
den” nahe bringen.
Short-FilmIn dieser Kategorie sind die Schüler/Stu-
denten dazu aufgefordert, die Thematik
„(dissolving) the boundaries between us“
in einem Kurzfilm aufzugreifen und in einer
Geschichte wiederzugeben.
ITHier sollen die Schüler/Studenten ihre Pro-
fessionalität im Bereich Netzwerk, Daten-
banken und Server demonstrieren.
Web DevelopmentGesucht werden innovative ASP.NET-An-
wendungen, bei denen es um Aus- und
Weiterbildung geht.
Visual GamingIn diesem Multi-Player-Spiel nutzen Spie-
ler aus der ganzen Welt ihre Programmier-
und Algorithmusfähigkeiten um mittels ge-
eigneter Spielstrategie Professor Hoshimi
zu retten. Nähere Informationen dazu gibt
es unter www.project-hoshimi.com/
„Highschool“ Wertung
In den Kategorien IT, Web Development
und Visual Gaming gibt es eine eigene
Schülerwertung (14-18 Jahre), um auch
den jüngeren Teilnehmern eine faire Chan-
ce einzuräumen, wobei ihnen selbstver-
ständlich auch die anderen Kategorien
offen stehen.
Anmeldeschluss für die erste Runde ist
(abhängig von der Kategorie) der 10. Jän-
ner 2005. Die ausführlichen Aufgabenbe-
schreibungen aller Kategorien sowie die
Teilnahmebedingungen mit Preisen finden
Sie im Internet unter: http://imagine.theS-
poke.net bzw. unter http://de.theSpoke.
net.
Nachdem sich beim Imagine Cup 2004
gezeigt hat, dass die Studenten des „al-
ten“ Europas durchaus auch gegen die
anderen Kontinente bestehen können,
würde es mich besonders freuen, wenn
es uns diesmal gelingen würde, einen der
Preise auch nach Österreich zu holen.
KontaktDipl.-Ing. Andreas SchabusAcademic Relations ManagerMicrosoft Österreich [email protected]
Die Finalisten 2004
16JOURNAL
Portrait
Susanne Saminger ist seit Juni
2000 Universitätsassistentin am
Institut für Wissensbasierte Ma-
thematische Systeme der Johannes Kep-
ler Universität Linz. Im Jahr 2003 schloss
sie ihre Dissertation zum Thema „Aggre-
gation in Evaluation of Computer-Assis-
ted Assessment“ ab und promovierte am
17. September 2004 unter den Auspizien
von Bundespräsident Dr. Heinz Fischer
an der Johannes Kepler Universität zur
Doktorin der Naturwissenschaften.
Ein Weg...
Mathematik hat Susanne Saminger von
Kindesbeinen an fasziniert. Der Schwer-
punkt des jeweiligen Interesses hat sich
im Laufe der Jahre und der fortschrei-
tenden Auseinandersetzung mit Mathe-
matik verschoben und weiterentwickelt.
Auf die Frage, wann und wofür sie das
erste Mal einen Computer benutzt hat,
erhält man die doch eher überraschende
Antwort „im Volksschulalter“. „Ich denke,
es waren diverse Spiele und Textverar-
beitungsprogramme zur Gestaltung von
Glückwunschkarten, die dann mit einem
Nadeldrucker ratternd ausgedruckt wur-
den“, berichtet die heute 29-Jährige mit
einem Schmunzeln. Erfahrungen in der Er-
stellung eigener Programme folgten. Nach
der Matura 1993 übersiedelte die gebür-
tige Linzerin nach Wien und begann das
Lehramtsstudium Mathematik und Philo-
sophie/Psychologie/Pädagogik an der
TU Wien und der Universität Wien, 1995
wurde das Lehramtsfach Physik an der TU
Wien dem Fächerkanon hinzugefügt.
…von E-Learning...
Die Auseinandersetzung mit mathema-
tischen Methoden und Strukturen, ihre
Umsetzung in praktischen Problemstel-
lungen, aber auch die Diskussionen
über selbige waren wichtige Aspekte
während der gesamten Studienzeit.
Susanne Saminger setzte sich immer
wieder mit der Einbindung von Software
im Unterricht auseinander, sowohl von
der theoretisch didaktischen als auch
von der praktischen Perspektive. Exem-
plarisch wurden Simulations- und Ex-
perimentierprogramme für Unterrichts-
einheiten geschrieben, eingesetzt und
evaluiert, Erfahrungen mit dem Einsatz
von graphikfähigen Taschenrechnern,
von Computer-Algebra-Systemen oder
auch des Internets gesammelt.
...über wissensbasierte Syste-me...
Neben E-Learning entwickelte sich die
Analyse komplexer Daten zu einem
weiteren Interessensschwerpunkt von
Susanne Saminger. Wie und auf welche
Weise können aus einer Ansammlung
von Daten (zuverlässige) Informationen
gewonnen werden? Wie lassen sich
diese darstellen und interpretieren? In
diesem Zusammenhang wurde Susan-
ne Saminger auch auf wissensbasierte
mathematische Methoden aufmerksam
– fuzzy Clustering, Statistik unscharfer
Daten. Ein Interesse, das sie im Rah-
men eines Ferialpraktikums 1998 am
Fuzzy Logic Laboratorium Linz-Hagen-
berg (FLLL) bei Prof. Erich Peter Kle-
ment erweitern und vertiefen konnte, wo
sie im Rahmen eines Industrieprojekts
an einer konkreten Fragestellung aus
dem Bereich der automatisierten Bild-
verarbeitung mitwirkte.
Nach Abschluss ihres Studiums An-
fang 2000 mit einer interdisziplinären
Diplomarbeit, für die sie vulkanische
Glasaschen aus dem ägäischen Raum
analysierte und dabei den gesamten
Prozess von der Probenaufbereitung
bis zur computerunterstützten Daten-
analyse und -visualisierung durchlief,
kehrte Susanne Saminger an das FLLL
als Forschungsassistentin zurück. Im
Juni 2000 erfolgte der Wechsel zur Uni-
versitätsassistentin.
Eines jener Projekte, in denen sie nach
ihrem Wechsel weiterhin mitwirkte,
war das Projekt IMMENSE (Interactive
Multimedia Mathematics Education in
Networked Universities for Social and
Economic Sciences), gefördert vom
bmbwk:.Projektkoordinatorin war die
Johannes Kepler Universität, weitere
Projektpartner das Ars Electronica Cen-
Junge WissenschaftlerInnen stellen sich vor: Mag. Dr. Susanne Saminger Auf den ersten Blick scheint der berufliche Werdegang von Susanne Saminger nur wenig mit IT zu tun zu haben. Ein genauerer Blick zeigt aber, dass Wege verschlungen sein können und Verbindungen zwi-schen Bereichen darstellen, in einer Art, wie sie vorerst nicht vermutet wurden – Porträt einer jungen Frau, die gerne über Grenzen blickt.
Foto
: Fot
ozau
ber H
aube
r
17Ausgabe 5/2004
Portrait
KontaktMag. Dr. Susanne SamingerInstitut für Wissensbasierte Mathemati-sche SystemeJohannes Kepler Universität LinzAltenbergerstr. 69, 4040 LinzTel.: 0732 / 2468-9195Fax: 0732 / [email protected]://www.flll.jku.at
ter, das damalige Zentrum für Fernstudi-
en der Universität Linz, UNISOFTWARE
PLUS, sowie Wolfram Research Europe.
Zu den Projektzielen zählte die Entwick-
lung interaktiver Lernsoftware basierend
auf Mathematica® für Studierende der
Wirtschaftswissenschaften (www.flll.
jku.at/meetmath). Relativ rasch stellte
sich im Rahmen des Projekts die Frage
nach Assessment. Vor allem bei E-Lear-
ning-Systemen des Selbststudiums ist
Assessment oder Self-Assessment ein
wichtiger Aspekt bei der Organisation
und der Überprüfung des gesamten
Lernprozesses. Feedback über den
erzielten Lernfortschritt oder den der-
zeitigen Wissensstatus kommt dabei
eine wesentliche Rolle zu. Bei der Ana-
lyse bestehender Assessment-Systeme
entdeckte Susanne Saminger, dass bei
der Auswertung vor allem unterschied-
liche Punkteschemata oder aber auch
„falsch/richtig/nicht bearbeitet“-Feed-
backroutinen zum Einsatz kommen. Re-
cherchen in der didaktischen Literatur
zeigten weiters, dass elaboriertes Feed-
back in Form von umfangreichem Text
oder Ähnlichem von Lernenden kaum
zu Ende gelesen, geschweige denn be-
arbeitet wird.
...zu deren Verbindung...
Im Rahmen ihrer Dissertation entwi-
ckelte Susanne Saminger daher einen
neuen Ansatz für die Auswertung von
Selbsttestungen, welcher wissensba-
sierte mathematische Methoden einbe-
zieht. Konkret handelt es sich um fuzzy
Relationen, welche einen graduellen
Vergleich zwischen gegebener Antwort
und korrekter Antwort oder auch zwi-
schen Antworten zweier lernender Per-
sonen, einer lernenden Person zu unter-
schiedlichen Zeitpunkten ermöglichen
und damit als Ähnlichkeiten ein kurzes,
unmittelbares und klar interpretierbares
Feedback bieten.
Weiters war die Auswertung einer An-
sammlung von Fragen, sprich eines
Gesamtfeedbacks basierend auf ein-
zelnen Evaluierungsergebnissen, zu
untersuchen. Dieser Vorgang wird auch
als Aggregation bezeichnet. Beliebte
und häufig angewandte Operatoren
sind neben anderen beispielsweise der
arithmetische Mittelwert, der Median,
gewichtete Mittelwerte oder die Mini-
mumbildung. Die Wahl des jeweiligen
Aggregationsoperators hängt von der
konkreten Anwendungssituation ab.
Susanne Saminger untersuchte, unter
welchen Voraussetzungen bestimmte
Aggregationsmethoden für die Auswer-
tung herangezogen werden können,
ohne dabei die zugrunde liegenden
Ähnlichkeitseigenschaften zu verlieren.
...weiteren Anwendungs-möglichkeiten...
Worin liegen die Stärken des Ansatzes?
Neben der Möglichkeit, bestehende Sys-
teme integrieren zu können, bietet der
Ansatz vor allem Modellierungsmöglich-
keiten für die graduelle Evaluierung von
Fragen mit offenem Antwortformat. Bis-
her wurde dabei mit scharfen Grenzwer-
ten gearbeitet, fallweise kombiniert mit
Toleranzen. Mit dem vorgestellten An-
satz können nun auch graduelle Über-
gänge modelliert werden. Eine weitere
Stärke des vorgestellten Ansatzes ist,
dass er in seinen Anwendungen nicht
auf computerunterstützte Testungen
beschränkt bleibt. Konkret wurden die
erzielten theoretischen Ergebnisse be-
reits für ihren Einsatz bei Vague Queries
untersucht. Weitere Anwendungsmög-
lichkeiten bestehen in der Auswertung
von Fragebögen, der Klassifizierung
von Daten anhand bestehender Benut-
zer- oder Datenprofile.
...und Perspektiven.
„Mit jeder gefundenen Antwort stellen
sich neue Fragen“, meint Susanne Sa-
minger und so sieht sie in ihrem Bereich
eine Reihe von weiteren, interessanten
Fragestellungen, die sie erforschen
möchte. Zu ihren aktuellen Arbeitsge-
bieten zählt weiterhin die Untersuchung
von Aggregationsoperatoren, die für die
Erhaltung von Eigenschaften von fuzzy
Relationen verantwortlich sind und bei-
spielsweise bei Auswertungsverfahren
in der Wirtschaft oder bei Entschei-
dungssystemen zum Einsatz kommen.
Für diese Forschungsvorhaben steht
Susanne Saminger in engem Kontakt
mit Forscherinnen und Forschern vor
allem aus dem Ausland. „Es ist span-
nend, die eigenen Ideen und Ansätze
zu präsentieren, zu reflektieren und zu
diskutieren, sie in einem mathemati-
schen Rahmen zu formulieren und de-
ren Gültigkeit zu beweisen“, beschreibt
Susanne Saminger einen Teil ihrer
wissenschaftlichen Tätigkeit. Dass sie
ihre Resultate auch auf internationalen
Tagungen präsentiert, ist selbstver-
ständlich, ebenso wie die zahlreichen
Forschungsaufenthalte im Ausland,
die ihre wissenschaftlichen Aktivitäten
unterstreichen. Der Ausbau und die In-
tensivierung dieser internationalen Ko-
operationen ist eines der weiteren Ziele
von Susanne Saminger. In der Lehre
wird sie ihre Forschungsergebnisse
auch in eigenen Lehrveranstaltungen
einbringen. Der Einbau von E-Learning-
Komponenten in diese scheint ebenso
selbstverständlich, wie die Tatsache,
dass Susanne Saminger auch derzeit in
einem E-Learning-Projekt aus dem Be-
reich der Mathematik an der Johannes
Kepler Universität mitwirkt.
18JOURNAL
Praxis und Wissen
RoboterfußballRoby vor – noch ein Tor
UNIV.-PROF. DR. PETER KOPACEK
Immer komplexere industrielle Aufga-
benstellungen erfordern intelligente,
kooperative Mehr-Robotersysteme.
Mehrere Roboter sind fähig, selbsttätig eine
gemeinsame Aufgabe so lange in Teilauf-
gaben zu zerlegen bis jeder von ihnen in
der Lage ist, wenigstens eine davon zu erle-
digen („Mehr-Agenten-Systeme“). Roboter
für Freizeit und Hobby sind einer der rapid
wachsenden Märkte dieses Fachgebiets.
Das Institut für Handhabungsgeräte und
Robotertechnik (IHRT) an der Technischen
Universität (TU) Wien beschäftigt sich seit
einigen Jahren sowohl mit Mehr-Roboter-
systemen als auch mit Robotern für den
Freizeit- und Hobbybereich. Neben anderen
Aktivitäten auf diesem Gebiet begann das
IHRT vor fünf Jahren mit Roboterfußball.
Ein Fußballroboter ist ein Würfel mit einer
maximalen Kantenlänge von 7,5 cm und ein
Anwendungsbeispiel für ein mechatroni-
sches System (Kombination von Feinwerk-
technik, Elektronik und Informatik). In die-
sem kleinen Volumen sind unterzubringen:
zwei Räder mit den zugehörigen Antriebs-
motoren und Untersetzungsgetrieben, die
Akkus, die Mechanik, die „Bordelektronik“
(Motoransteuerung, Regelung, Funkmodul)
sowie zukünftig Sensoren (Augen und Oh-
ren) einschließlich der erforderlichen Signal-
verarbeitung.
Üblicherweise besteht ein Team aus fünf,
sieben oder elf Robotern und drei mensch-
lichen Betreuern (Teamkapitän, Coach und
Trainer). Gespielt wird nach den Regeln der
FIRA (Federation of International Robotsoc-
cer Association) auf einer Fläche zwischen
1,50 m mal 1,30 m und 4,0 m mal 2,8 m
– je nach Anzahl der Spieler – mit einem
Golfball. 2 - 3 m über dem Spielfeld ist eine
Farbkamera montiert, welche 60 Bilder pro
Sekunde an den Teamrechner überträgt.
Durch laufende Auswertung dieser Bilder
(Bildverarbeitungssoftware) ermittelt der
Rechner die Position des Balles und der
Spieler auf dem Feld. Daraus berechnet
er die nächsten Bewegungsschritte seiner
Roboter (Strategiesoftware). Diese werden
über Funk an die Spieler weitergeleitet.
Ein Spiel dauert 2 x 5 Minuten netto (Spiel-
unterbrechungen werden nicht berücksich-
tigt). Nach dem Anpfiff des Schiedsrichters
startet jede Mannschaft ihren Rechner. Von
diesem Augenblick läuft das gesamte Spiel
vollkommen rechnergesteuert. Den drei
menschlichen Teammitgliedern (Kapitän,
Coach und Trainer) ist es nur während der
Spielunterbrechungen gestattet, Befehle
an die Roboter zu senden, wie z. B. Ver-
änderung der Spielstrategie (offensiv oder
defensiv) oder das Setzen eines definierten
Ausgangszustands (Freistoß, Penalty, etc.).
Vor sechs Jahren wurde mit der Entwicklung
einer neuen Generation von Fußballrobo-
tern, einschließlich einer Bildverarbeitungs-
und Strategiesoftware unter folgenden Vor-
gaben begonnen: Stabiler mechanischer
Aufbau der Roboter, hohe Traktion der
Antriebsräder, hohe Antriebsleistung (2 x
4 Watt) dadurch hohe Geschwindigkeit
(größer 2,5 m/sec), große Akkukapazität
– Spielzeit mehr als eine Stunde, hohe Bild-
übertragungsrate – 60 Bilder/sec, schnelle
Rechnerhardware, effiziente Bildverarbei-
tungssoftware, Strategiesoftware mit mög-
lichst vielen Spielstrategien – derzeit 57.
Die Kinder sind immer besser als die Eltern:
Roby Run, die nächste Generation, welche
2002 zur Verfügung stand, war mit 3,2 m/s
wesentlich schneller und bestand ihre Feu-
ertaufe bei der WM 2003 mit zwei Vizewelt-
meistertiteln. Die letzten Entwicklungen am
IHRT sind jedoch Roby Speed und Roby
Naro, welche im Hexenkessel von Busan
bei der WM 2004 in Korea zwei Weltmeister-
titel nach Österreich holten. Ein dritter wurde
nur knapp verpasst.
Die nächste Entwicklung des österreichi-
schen Teams ist ein humanoider Fußball-
roboter, der sich wie seine menschlichen
Vorbilder auf zwei Beinen bewegt. Er soll
bei der WM 2005 erstmals zum Einsatz
kommen.
Finale 5 vs. 5 Busan
Infos unter:www.ihrt.tuwien.ac.atwww.roboterfussball.atwww.robosoccer.at
19Ausgabe 5/2004
Praxis und Wissen
Gute GründeDer Bedarf einer Staatsorganisation an
IT-Lösungen ist immens groß: alleine die
europäische E-Government-Initiative um-
fasst für die BRD ca. 400 Dienstleitungen
und ein Budget von 1,65 Mrd. Euro. Der
Staat besteht aus vielen beschaffungsau-
tonomen Einheiten, die extrem schwer für
eine gemeinsame IT-Vision zu motivieren
sind. Die nicht zu reduzierende Menge an
IT-Projekten führt schnell zu Ideenreich-
tum, Verständigungsdifferenzen, Wieder-
holungsarbeiten und Inkonsistenzen und
Schnittstellenreparaturen. Ein probates
Mittel, große Projekte und Visionen auf ge-
meinsame Ziele auszurichten, ist das me-
diatisierende Programmmanagement, die
Ausrichtung vieler Projekte und vieler Inte-
ressenslagen auf ein gemeinsames Ziel.
Das Fundament des Erfolgs ist allerdings
ein Paket zugrundeliegender Standards. Zu
einem solchen Standard wurde in den ver-
gangenen Jahren das V-Modell.
Das V-Modell ist ein umfassendes Prozess-
modell für die Planung und Durchführung
der Systementwicklung in IT-Projekten,
ein Modell aller erforderlichen Tätigkei-
ten und Ergebnisse eines IT-Projekts. Das
erste V-Modell wurde 1991 im Auftrag
der Bundesverwaltung der Bundesrepu-
blik Deutschland für die Entwicklung mi-
litärischer IT-Systeme zum „Allgemeinen
Umdruck“, um Erfolgswahrscheinlichkeit,
Qualität und Wartbarkeit zu steigern.
Mit der zweiten Version, dem V-Modell 97,
erweiterte sich der Anwendungsbereich auf
alle zivilen Bundesbehörden in Deutsch-
land. In Österreich wurde eine angepass-
te Version als IT-Bundesvorgehensmodell
(IT-BVM) eingeführt. Mittlerweile wird das
V-Modell europaweit von einer Vielzahl von
privatwirtschaftlichen Unternehmen und Be-
hörden erfolgreich eingesetzt.
Seit 1997 hat sich die IT-Welt rasant weiter-
entwickelt. Neue Technologien, Methoden
und Verfahren sind zu bewährten hinzuge-
kommen und die Kombinationsmöglichkeiten
sind kaum noch zu überblicken, geschweige
denn einer Lösung zuzuführen. Das Pro-
jektteam um Prof. Dr. Manfred Broy der TU
München und Prof. Dr. Andreas Rausch der
TU Kaiserslautern haben sich im Auftrag des
Deutschen Bundesamt für Wehrtechnik und
Beschaffung, gemeinsam mit Industriepart-
nern (Siemens, EADS, 4soft, IABG) und erfah-
renen Reviewern der gestiegenen Komplexi-
tät der IT-Lösungen angenommen, das neue
„V-Modell XT“ entwickelt und die Version 0.9,
im November 2004 veröffentlicht.
Der AufbauWie schafft man es, eine höhere Komplexität
einfacher handhabbar zu machen? Anstelle
monolithischer Submodelle, stehen jetzt auf-
einander aufbauende Vorgehensbausteine.
Der Vorgehensbaustein ist die neue zentrale
Einheit im V-Modell XT und die zentrale Einheit
des Tailoring. Ein Vorgehensbaustein enthält
alle Produkte, Aktivitäten und Rollen, die unter
Tailoring-Gesichtspunkten inhaltlich zusam-
men gehören. Ein V-Modell-Anwender kann
das V-Modell projektspezifisch anpassen,
ohne dass er die in den einzelnen Bausteinen
enthaltenen Aktivitäten, Produkte und Rollen
bereits im Detail verstanden haben muss.
Dabei konnte das Leistungspektrum des V-
Modell XT noch erweitert werden um:
die Trennung der Sichten von Auftragge-
berseite und Auftragnehmerseite und de-
ren Kooperation
die Entwicklung von komplexen Syste-
men aus Hardware und Software
Migrationsprojekte
die Planungsphasen sowie die Ausschrei-
bung von IT-Systemen.
Inbetriebnahmephase, Betriebsphase,
Wartung und Pflege, und Außerbetrieb-
nahme
Die im Lieferverhältnis stehenden Projekt-
partner, Auftraggeber und Auftragnehmer,
können mittels der für ihre Projektsicht re-
levanten Vorgehensbausteine planen. Bei-
de V-Modell-Projekte (Auftraggeberprojekt
und Auftragnehmerprojekt) wirken über die
definierten Schnittstellen-Prozesse zusam-
men.
Das V-Modell bietet sowohl eine Unterstüt-
zung für private Auftraggeber, die hohe
Freiheitsgrade in der Wahl ihrer Lieferanten
haben, als auch für öffentliche Auftragge-
ber, die durch das öffentliche Vergaberecht
gebunden sind. Das V-Modell unterstützt
mit vielen Hinweisen und Verweisen auf
Vergaberegeln eine korrekte, rechtssichere
Ausschreibung und Vergabe. Zu diesem
Vorgehensbaustein gehören z. B. die Pro-
dukte Ausschreibungskonzept, Ausschrei-
bung, Kriterienkatalog für die Angebots-
bewertung, Angebot, Angebotsbewertung,
Vertrag, Vertragszusatz, Lieferung und Ab-
nahmeerklärung.
Bewährtes vom V-Modell 97 wurde über-
nommen, sodass bestehende V-Modell
97-Derivate zum V-Modell XT kompatibel
bleiben. So ist auch Transparenz einer Mi-
gration zum V-Modell XT gewahrt. Für eta-
blierte, den Entwicklungsprozess unterstüt-
zende Verfahren wie z. B. RUP, CMMI, ISO
9000 u. a. ist die Kompatibilität hergestellt.
Der NutzenDie Beschreibung des V–Modell XT steht
kostenlos zusammen mit einer (in Zukunft
noch weiter ausgebauten) Vorlagensamm-
lung, Schulungsunterlagen, einer interakti-
ven Lerntour und einem Customizing Tool
zum Download unter www.v-modell200x.
de zur Verfügung.
Alles in allem hat der Anwender eine Rei-
he von Vorteilen, davon unabhängig ob er
Auftraggeber, Auftragnehmer oder Sub-
Lieferant ist:
Minimale Entwicklungskosten für ein ei-
genes Vorgehensmodell und weniger
Planungsaufwand bei der Planung des
Gesamtprojekts,
verringerter Steuerungsaufwand im Ver-
gleich zum bisherigen V-Modell,
klare Regeln für die Zusammenarbeit und
Verantwortlichkeiten,
Minimierung der Projektrisiken und Ver-
besserung der Qualität,
Bessere Zuordnung und Kontrolle der
Kosten über den gesamten Systemle-
benszyklus.
Das V-ModellFortsetzung einer Erfolgsstory
DIPL.-MATH. REINHARD HÖHN
20JOURNAL
Forschung und Innovation
Das wichtigste aber ist die
Verbesserung der Kommunikation zwischen
allen Beteiligten,
zur Führbarkeit von Großprojekten erforder-
liche Transparenz
Bis Mitte kommenden Jahres wird das V-Modell
in einer englischsprachigen Version aufgelegt,
was den Einsatz in europäischen Projekten er-
möglicht. In Ermangelung eines alle IT-Projektty-
pen umfassenden gemeinsamen europäischen
Standards darf eine große Verbreitung erwartet
werden. Mit der Verwendungsverpflichtung für
Behördenprojekte ist die Fortsetzung des Qua-
si-Standard „V-Modell“ garantiert. Bleibt zu wün-
schen, dass dieses Mal die Beratungsqualität
durch ein Zertifikat sichergestellt werden kann.
Am 27. Jänner 2005 lädt die OCG unter-
stützt durch den „Arbeitskreis V-Modell der
Fachgruppe Vorgehensmodelle in der Wirt-
schaft“ der Gesellschaft für Informatik und
der KMA, zu einer kostenlosen ganztägigen
Präsentation mit Prof. Dr. Andreas Rausch
und Stephan Höppner, Mitglied des Review-
board, ein (Ort und genauer Termin werden
rechtzeitig bekannt gegeben).
KontaktDipl.-Math. Reinhard HöhnKMA, Knowledge Management Associa-tes GmbHLerchenfelder Gürtel 43, IP-Two, 1160 WienTel.: 01 / 7470 29 09reinhard.hö[email protected]
9th European Conference on Research and Advanced Technology for Digital Libraries
Vienna, 18 – 23 September 2005
ECDL 2005 is the 9th conference in the series of European Digital Library confe-rences. ECDL has become the major European conference on digital libraries, and associated technical, practical and social issues, bringing together researchers, de-velopers, content providers and users in the field. ECDL 2005 is jointly organized by the Vienna University of Technology (VUT), the Austrian National Library (ÖNB), and the Austrian Computer Society (OCG).ECDL 2005 invites original contributions focusing on research and development supporting information access and exploration both from a technology perspective as well as in different application domains such as science, e-government, cultural heritage etc...
Topics Concepts of Digital Libraries and Digital Documents System Architectures, Integration and Interoperability Information Organization, Search and Usage User Studies and System Evaluation Digital Preservation Digital Library Applications
Important Dates January 28, 2005 Workshop Proposals February 27 Workshop Acceptance Notification March 1 Paper/Tutorial/Panel Submission May 15 Acceptance Notification June 3 Final Version of Papers September 18-23 Conference
SubmissionsSubmissions are invited for full or short papers, posters, demonstrations, panels, tutorials and workshops. All contributions will be reviewed by members of the pro-gram committee. The proceedings of the conference will be published by Springer in the Lecture Notes in Computer Science, in hard copy and electronic form. The full text of papers is required at initial submission stage. Papers must be submitted electronically via the submission web page. Details of the submission guidelines will be published on the conference website.Conference OrganizationThe local organization is jointly done by the Austrian Computer Society, by the Austri-an National Library and by the Vienna University of Technology.
General Chair: A Min Tjoa, VUT, AustriaProgram Chairs: Andreas Rauber, VUT, Austria Stavros Christodoulakis, TUC, GreecePoster & Demo Chairs: Giuseppe Amato, CNR, Italy Pavel Zezula, Masaryk Univ. Brno, Czech Rep.Workshop Chairs: Fabio Crestani, U. Strathclyde, UK Dieter Merkl, Univ. Western Sydney, AustraliaTutorial Chairs: Nozha Boujemaa, INRIA; France Shin‘ichi Satoh, NII, JapanPanel Chairs: Laszlo Kovacs, Academy of Sciences, Hungary Ed Fox, Virginia Tech, USABest Paper Award Chair: Erich Neuhold, Fraunhofer - IPSI, GermanyPublicity Chairs: Julien Masanes, BNF, France Michael Bauer, TU Munich, GermanyLocal Organizing Chairs: Eugen Muehlvenzl, OCG, Austria Max Kaiser, OENB, Austria Alexander Schatten, VUT, Austria Carl Rauch, VUT, Austria
KontaktCarl Rauch, Bakk. und Ao. Univ.-Prof. Dipl.-Ing. Dr. Andreas RauberInstitut für Softwaretechnik und interaktive SystemeFavoritenstr. 9-11, 1040 Wien{rauch, rauber}@ifs.tuwien.ac.atwww.ecdl2005.org
OSCON Vienna 2005Am 21. Jänner 2005 findet in der Wirt-schaftskammer Österreich in der Zeit von 9.00-17.00 Uhr die OSCON Vienna 2005 statt.Diese Konferenz richtet sich an Be-rater, die ihre Kunden zum Thema Open Source Software (Anwendungen, Chancen und Risken) informieren möchten. Weiters an Personen, die technische Strategien entwickeln und in der Informationstechno-logie Entscheidungen treffen. Zielgruppe sind ebenso Verantwortliche im öffentlichen Bereich – Behörden, Forschung und Lehre. Die OCG Open Source Software Plattform wird in Form einer Podiumsdiskussion zum Thema „Wirtschaftliche und soziale Aspekte von OSS in der modernen Informationsge-sellschaft“ an der Konferenz teilnehmen.Das genaue Programm sowie die Anmelde-möglichkeit finden Sie unter: www.oscon.at
21Ausgabe 5/2004
OCG aktuell
Seit 1979 ist die ÖAGM (Österreichische Ar-beitsgemeinschaft für Mustererkennung) ein Arbeitskreis der OCG und seit 1982 Mitglied
der IAPR (International Association on Pattern Recognition). Seit da-mals vertritt Prof. Walter Kropatsch die ÖAGM imGoverning Board der IAPR, das alle zwei Jahre im Rahmen der ICPR (International Confe-rence for Pattern Recognition) zusammentritt. Die IAPR ist eine inter-nationale, gemeinnützige Dachorganisation. Aus derzeit 42 nationalen Organisationen rekrutieren sich die Mitglieder aus Wissenschaft und Wirtschaft, die in den Bereichen der Mustererkennung, Computer Visi-on und Bildverarbeitung im weitesten Sinne tätig sind. Die Mitgliedsor-ganisationen entsenden je nach Größe 1 - 4 Vertreter in das Governing Board.
Die inhaltliche Arbeit der IAPR erfolgt in den 20 technischen Komitees, die den Arbeitskreisen der OCG sehr ähnlich sind. Diese technischen Komitees organisieren mindestens einmal in zwei Jahren einen inter-nationalen Workshop, auf dem die aktuellen Forschungsthemen inten-siv diskutiert werden. Viele technische Komitees haben Benchmarks zusammengestellt, die die Bewertung der einschlägigen Algorithmen auf objektiver Basis erlauben. Sie decken ein sehr großes Gebiet fach-licher Spezialisierung ab, sind daher für viele Fachdisziplinen interes-sant und laden zur Mitarbeit ein:
TC1: Statistical Pattern Recognition TechniquesTC2: Structural & Syntactical Pattern RecognitionTC3: Neural Networks & Computational IntelligenceTC5: Benchmarking & SoftwareTC6: Special Hardware and Software EnvironmentsTC7: Remote Sensing and MappingTC8: Machine Vision ApplicationsTC9: Biomedical Image AnalysisTC10: Graphics Recognition TC11: Reading SystemsTC12: Multimedia and Visual Information SystemsTC13: Pattern Recognition in Astronomy & Astrophysics TC14: Signal Analysis for Machine Intelligence TC15: Graph Based Representations TC16: Algebraic and Discrete Mathematical Techniques in Pattern Recognition & Image Analysis TC17: Machine Learning and Data Mining TC18: Discrete Geometry TC19: Computer Vision for Cultural Heritage ApplicationsTC20: Pattern Recognition for Bioinformatics
Prof. Kropatsch ist seit 1990 Universitätsprofessor an der Fakultät für Informatik der TU Wien und leitet den Arbeitsbereich Mustererkennung und Bildverarbeitung (engl. Pattern Recognition and Image Proces-sing, kurz PRIP). Sein zentrales Anliegen ist es, mit der Mustererken-nung in Wien eine Spitzenposition im Netz der internationalen wissen-schaftlichen Gemeinschaft zu erreichen.Ein wichtiger Schritt dazu gelang 1992, als die Bewerbung um die
Durchführung der alle zwei Jahre stattfindenden Konferenz (ICPR) vom Governing Board der IAPR den Zuschlag erhielt. 1996 fand dann die ICPR mit einer Rekordbeteiligung von fast 1.000 Teilnehmerinnen und Teilnehmern zur allgemeinen Zufriedenheit in Wien statt.
Nach weiteren acht Jahren, in denen Prof. Kropatsch verschiedene Positionen in der IAPR innehatte, wurden im August 2004 vom Gover-ning Board folgende Personen in das Executive Committee der IAPR gewählt:
Präsident: Walter G. Kropatsch (Österreich)1.Vizepräsident: Karl Tombre (Frankreich)2.Vizepräsident: Sergey V. Ablameyko (Weißrussland)Past Präsident: Rangachar Kasturi (USA)Schriftführer: Denis Laurendeau (Kanada)Finanzreferentin: Maria Petrou (GB)Damit ist erstmals ein Österreicher an der Spitze dieser internationalen Vereinigung.
Zwei Ziele stehen für Prof. Kropatsch im Mittelpunkt seiner Präsident-schaft:1. Das Educational Committee soll sich verstärkt der Strukturierung der Ausbildungsinhalte widmen. Ziel ist es, der zunehmenden Nachfrage nach Lehrveranstaltungen im Bereich Mustererkennung und den mit ihr assoziierten Gebieten wie Computer Vision und Bildverarbeitung in ver-schiedenen Studien im benötigten Ausmaß Rechnung zu tragen. 2. Der rasche Anstieg von Publikationen erfordert eine qualitative Dif-ferenzierung. Eine eigens eingerichtete Task Force soll Kriterien ausar-beiten, die über die üblichen Maßstäbe wie den Citation Index hinaus-gehend die Qualität verschiedener Publikationsmedien erfassen. So sollen diese auch eine Wertung von Konferenzen erlauben, wo derzeit eine große Bandbreite an Publikationen verschiedenster Qualität anzu-treffen ist. Durch die Sichtbarmachung verschiedener Qualitätsfakto-ren könnte mittelfristig die Qualität insgesamt steigen, da sowohl Auto-ren als auch Gutachter daran interessiert sind, ihre Tätigkeit innerhalb einer qualitativ hochwertigen Konferenz oder Zeitschrift zu erbringen.
Dieses zweite Anliegen fällt mit einer Initiative des Arbeitskreises ProIT der OCG zusammen, wo die Probleme sich sehr ähnlich darstellen. Ein Zusammentreffen, das nach einem Gedankenaustausch ruft, von dem das gesamte Fachgebiet profitieren kann.
Neuer IAPR-PräsidentUniv.-Prof. Dipl.-Ing. Dr. Walter G. Kropatsch
UNIV.-PROF. DIPL.-ING. DR. WALTER G. KROPATSCH
LinksProf. Kropatsch: www.prip.tuwien.ac.at/~krwIAPR: ÖAGM: http://aapr.prip.tuwien.ac.at
KontaktProf. Walter G. KropatschInstitute of Computer Aided AutomationPattern Recognition and Image Processing GroupTel.: 01 / 588 [email protected]
22JOURNAL
Portrait
Therefore, the OCG (Austrian Com-
puter Society) and ÖGIG (Austrian
Society for History of Informatics)
have decided to conduct a series of in-
terviews with outstanding computing sci-
entists, asking for their views on both the
general issue of the history of informatics
and for their personal reflections on both
the past and the future role of informatics
in our society.1
The following interview
with Niklaus Wirth is
the first of this series.
Is Informatics old enough to start dis-cussing its history? The word informatics
is itself rather young,
dating back to about
1970 and created by
Dreyfuss. It’s a con-
traction of “traitement
d’information automa-
tique”, an expression
which emphasizes that
something automatic
is going on. Using this sense of the word,
informatics would exclude anything before
automatic machinery. For me ‘automation’
implies electronics, so I would leave out the
mechanical calculating machines of the
19th and early 20th centuries. With this de-
finition, a history of informatics would begin
with electronics, or perhaps with the elec-
tro-mechanical computing machines of the
1940s. We are looking at only 60 years, but
we move during that time from an unwieldy
tool for a handful of mathematicians and
Conversations on the History of Informatics (I): An Interview with Niklaus Wirth Informatics is a young science and during the first decades computing scientists were too busy with the basics to have time for reflections. Informatics seems now to come to its adolescence. It is getting more and more independent from its many parents such as mathematics, systems theory, electronics and even economy, and it starts to pose questions concerning its roots, its deeper sense, and its role in society – in short, it starts to concern itself with its own history. However, while many agree that such a history is important, few agree on what informatics is and how its history should be investigated.
engineers to a digital ‘context’ which fra-
mes the global economy and, increasingly,
western society. If we consider history to be
a study of change, then I’d say we have suf-
ficient material.
But it is material that many of us have lived. Would a formal study bring anything new to the table?
If you are living within
a particular ‘context’,
you may not be able
to see this context wi-
thout going outside
of it. Much of today’s
world lives outside
the umbrella of the
computer, networks,
or even the telepho-
ne. We tend to forget
this because we are
so firmly positioned
within the paradigm
of informatics as a
way of life. In looking
at the history of infor-
matics, we step out-
side this context and look at ourselves.
What would you include within the scope of a history of informatics? The computer itself is important but the
computer alone does not define infor-
matics. There are many other dimensions.
The way the computer is used also tells a
story; in the 50s the computer sat in a labo-
ratory and a scientist would sign up days in
advance to have this huge machine all for
himself. Then there is the user community
which has mutated from the military and
the atomic research community of the 50s
to the people today who are telephoning,
playing, studying, and working. The scope
of application has moved during this time
to embrace robotics, games, shopping,
even the opera. Advances in language de-
sign have allowed for abstraction, which
of course defines the boundary between
virtual and real. And so on. Informatics
history deals with the co-evolution of the
computer and these other dimensions.
What was the first step from the early computer towards this world of informatics? I would definitely say reliability. The vacu-
um tube-based computer had a meantime
between failure in the order of hours: each
(high quality) tube had a MTBF of about
10’000 hours. Hence, in a computer with,
say 5.000, tubes, some tube would go out
every two hours and with it the entire com-
puter. This meant that a program had to
have a runtime of less than two hours if
you were to have a reasonable chance of
its completing before the next breakdown.
The introduction of the transistor, around
1960, changed all this.
But the transistorized computer remained the plaything of a small po-pulation of specialists for quite some time. What was happening? For one, many were learning to program.
A new kind of (written) language was
needed and this has taken a long time
and is still in development. The computer
was a tool which demands great attention
from the tool-bearer. To the degree that the
programmer has to focus on the underly-
ing computer’s details, he is distracted
from concentrating on the task at hand.
A good language provides a better plat-
form, computing model, abstraction. For
a long time computer science remained
the domain of the engineers who built
the machines, and of the mathematicians
who used them. Programming languages
1 Thanks go to Prof. Laszlo Böszörmenyi, former student of Wirth, for the idea and impetus to set this series of articles in motion.
23Ausgabe 5/2004
Portrait
were the first topic that came from neither
of these two camps. Among languages,
Algol 60 was the first with some meas-
ure of mathematical formalism and rigor.
This layer of abstraction was a catalyst for
programming methods, language design,
and algorithms. These topics attracted
new interests, users and ideas about what
to do with a computer.
Who was driving the research agenda? Initially it was the military and then busi-
ness. Despite the interest and involvement
of a new community, computer science
remained for some time an academic
stepchild; it was in the house, it was use-
ful, but it had no status. The programmer
was homeless, commuting, as I did at
Berkeley, between the engineering and
mathematics buildings. But in1965 Carne-
gie-Mellon (Pittsburgh), MIT (Cambridge),
and Stanford (Palo Alto) each conferred
upon computer science the status of an
academic discipline in its own right. Each
of these universities established an inde-
pendent computer science department,
thus giving recognition, official status,
attention and financing to a sector much
broader than computer technology per se.
This meant a tremendous shift of focus.
But it took many universities, in-cluding the ETH in Zurich, another fifteen years to grant full recognition. How were you impacted? The chain reaction had started. With or
without a computer science division, the
informatics community at ETH and many
other universities and research institutes
coalesced around the changing agenda.
Somewhere we moved from a closed community of computer specialists to a global community of informatics aficionados. What factors and play-
ers brought us to the tipping point? Xerox PARC’s Alto appeared on the scene
around 1974 and this powerful workstation
eventually spawned the ubiquitous perso-
nal computer, although the PC of 1980
was still a long way behind the Alto. PARC
with its Ethernet and the DoD with Arpanet
were driving forces in the development of
networks. Now it has become difficult to
find a research project in computing that
does not involve networks. These deve-
lopments profited from advances in lan-
guage design, but also contributed to it.
For example, I introduced Pascal in 1970,
but Pascal attained its real acceptance af-
ter 1977. This was due at least in part to
the personal computer. Along came a ge-
neration who had ready access to compu-
ters and, most importantly, who had not to
unlearn old habits, whose first interface to
the computer was a high level and structu-
red language. This was the first generation
which was free to focus on what you could
do with the computer, rather than on the
computer itself.
Where will informatics take mankind? Are there important (historical) les-sons that we should keep in mind? People believe that they can no longer live
without the mobile telephone, the PDA, the
internet, computer-based entertainment.
The computer has simply become a part
of the fabric of life, just as mobility has. But
how many people understand the relati-
onship between mobility and our depen-
dency upon fuel resources? The capability
of mobility has been abstracted from the
physical world. Rather than deal with the
abstraction, people can choose to simply
live within it. So too with informatics. I of-
ten hear people proudly boasting that they
know nothing about computers, or about
physics. But a sound education in natural
sciences is essential to an understanding
of our world; how does a gear, a pump,
an electric motor, a wing, a gas turbine, a
computer work? What are its underlying
principles and laws of nature? The com-
puter can provide capabilities and infor-
mation, not more. But it seems that many
people believe that the computer makes
understanding superfluous, “because you
can look it up in the Internet”, if needed.
Would you pose a question to the readers? Is the computer a food or a drug? Do we
use it to stimulate the way we teach, deal
with, learn and think about the increasing
abstractness of our world; or do we use
it as a sedative, to make us drowsy, and
unaware of the real world around us? The
choice will be a historical one.
Niklaus Wirth is one of the most influential scientists in the area of infor-matics. He made essential contributions to Algol-60, and thus to the establishment of informatics as a science. He designed a series of programming languages. Early works on Euler, PL/360 and Algol-W were followed by the extremely successful and significant Pascal language. After Pascal and a longer visit at Xerox PARC in Califor-nia, he devoted himself to the efficient coupling of hardware, language, compiler and operating system design. This led to the simple and clean programming languages Modula(-2) and Oberon(-2), the Lilith and the Ceres computers and the Oberon ope-rating system. Wirth is one of the most quoted authors in computing science. Many of his books and papers belong to the evergreen classics, one of the best known being Algorithms + Data Structures = Programs, which helped generations of stu-dents to understand how algorithms really work. He was honored with numerous awards, among others, in 1984, with the ACM’s Turing Award, the highest distinction a computing scientist can achieve. Wirth has retired from his professorship at the ETH Zürich, lives in Zürich, actively follows the development of informatics, and reflects on it with a critical view – not without his fine sense of humor.
Niklaus Wirth was interviewed by Ann Dünki, a former Ph.D. student of him.
24JOURNAL
OCG aktuell
Das Management moderner Trans-
portketten erfordert die Bewälti-
gung vieler heterogener Schnitt-
stellen, eines wachsenden Anteils an
intermodalen Verkehren und zunehmende
Sendungskonsolidierungen bzw. -auflö-
sungen. Zu diesen gestiegenen Anforde-
rungen an die Qualität der Logistikleistung
kommen rasch wechselnde Konsumge-
wohnheiten der Endkunden, aus denen
sich kleinere Sendungsgrößen, kleinere
Lieferfrequenzen und kürzere Lieferzeiten
ergeben. Wie der Eröffnungsredner, Dipl.-
Ing. Rudof Bauer (Paradigma Consulting
und Co-Leiter Wirtschaft des Forums
eLogistics), erläuterte, bietet Tracking und
Tracing die Voraussetzungen zur effizien-
ten Ausgestaltung komplexer Lieferketten
und leistet somit einen wichtigen Beitrag
zur Erhaltung und Steigerung der Wettbe-
werbsfähigkeit von Logistikunternehmen.
E-Business als Enabler in der Logistik und Logistik als Enab-ler für E-BusinessAm Beispiel der MAN Nutzfahrzeuge er-
läutert Herr Dr. Gerold Wagner, Leiter des
Fachhochschulstudiengangs E-Business
an der Fachhochschule Steyr, die Zusam-
menhänge zwischen Logistik und E-Busi-
ness. Auf die Forderung der Märkte nach
verkürzten Lieferzeiten hat MAN mit dem
„15-Tage-LKW“ im Rahmen des Projekts
„MAN-OnLine“ reagiert. Dabei erhält der
Kunde bei der Online-Bestellung sofort
die Lieferterminzusage und kann nach
etwa 15 Arbeitstagen das individuell ge-
fertigte Fahrzeug in Empfang nehmen.
Tracking & Tracing Vortragsveranstaltung des Arbeitskreises eCommerce und des Forums eLogistics
DIPL.-ING. RUDOLF J. BAUER, UNIV.-DOZ. DR. KARL FRÖSCHL UND AO. UNIV.-PROF. DR. CHRISTINE STRAUSS
Die verkürzte Durchlaufzeit erfordert eine
Neuausrichtung der internen und externen
Strukturen und Prozesse, um so den Kun-
denwunsch nach einem maßgeschneider-
ten Fahrzeug zum zugesagten Termin in
der richtigen Qualität erfüllen zu können.
Dabei zeigt sich, dass einerseits E-Busi-
ness als Enabler in der Logistik eingesetzt
wird, aber auch umgekehrt Logistik als
Enabler für E-Business fungiert. Mit me-
thodischer und konzeptioneller Unterstüt-
zung der FH Steyr werden bestehende
Kooperationen mit Lieferanten überprüft
und sowohl in strategischen als auch
operativen Dimensionen weiterentwickelt.
Die FH Steyr konnte somit einen wichtigen
Baustein zur Realisierung des „15-Tage-
LKW“ beitragen, der für die MAN Steyr AG
neue Chancen am Markt eröffnet.
Automatische Identifikation im FrachtverkehrMit Henk van Maaren konnte einer der Key-
Player auf dem Gebiet des Transport-EDI
und führender Experte mit langjähriger Er-
fahrung im grenzüberschreitenden Handel
und den damit verbundenen Datenflüssen
für einen Vortrag gewonnen werden. Er
hatte und hat eine Reihe von Funktionen
in internationalen Gremien inne (UN/CEF-
ACT, OASIS ebXML, EEG2, TBG3, ITIGG,
TBG17). Henk van Maaren berichtete über
Zielsetzungen und Aktivitäten im Rahmen
des Projekts „Multi Industry Transport
Scenarios (MIST)”; dort definieren Ver-
treter unterschiedlicher Industriesparten
gemeinsam mit Verkehrsexperten eine
Menge typischer Transportszenarien (Ar-
tefakte) zur Harmonisierung der Daten-
ströme zwischen Auftraggeber, Frächter
und Empfänger unter Verwendung von
EDI messages und automatischer Iden-
tifikation zur Unterstützung idealtypischer
Vorgänge. Schließlich wurde die Anwen-
dung von radio frequency tags (kurz:
RFID) bei Containern entsprechend den
Sicherheitsanforderungen der Zollbehör-
den diskutiert.
GILDANETProfessor Ernesto Della Sala von Teleporto
Adriatico (Venedig) gab einen Einblick in
das internationale Transportlogistikprojekt
GILDANET, das eine Kooperation der Re-
gionalverwaltung der Emilia Romagna mit
österreichischen, italienischen, sloweni-
schen und griechischen Projektpartnern
im europäischen Strukturförderungspro-
gramm INTERREG IIIB (CADSES) darstellt.
GILDANET strebt die Weiterentwicklung,
Harmonisierung und standardkonfor-
me Konzeption bestehender und neu zu
schaffender Logistikplattformen zur Er-
leichterung des internationalen Handels
via nordadriatischen Hochseehäfen an.
Dabei geht es um ebXML-konforme digita-
le Infrastruktur für länder- und verkehrsträ-
gerüberschreitende Supply Chains (Log
Chains, E-Chains) und an internationalen
Standards (UN/CEFACT) orientierte Zu-
gangsmöglichkeiten zu Informationen und
Dokumenten für Behörden und Betreiber
intermodaler Transportsysteme.
Tracking und die Modellie-rung von User MobilityMobile Technologien ermöglichen dem
Benutzer die örtliche Entkopplung von
einem einzigen Arbeitsplatz. Frau Dipl.-
Ing. Karin Hummel vom Institut für Infor-
matik und Wirtschaftsinformatik an der
Universität Wien befasste sich mit der
Modellierung und Realisierung von Loca-
Der OCG-Arbeitskreis eCommerce und das OCG-Forum eLogistics veranstalteten am 10. November 2004 im Franz-Dvorak-Saal der Ös-terreichischen Wirtschaftskammer gemeinsam mit AUSTRIA PRO und ec31 einen international besetzten Vortragscluster zum Thema „Tracking and Tracing“, der mit großem Interesse bei Vertretern der Wirtschaft und Wissenschaft aufgenommen worden ist.
1 ec3 – Electronic Commerce Competence Center – wurde im Rahmen des Kompetenzzentrenprogramms (K-ind) des BMWA im Jahr 2000 als Forschungsverein gegründet, der sich als wertgenerierender Mittler zwischen Wissenschaft und Wirtschaft versteht. Dieser Funktion kommt ec3 durch Partnerschaften mit drei (Wiener) Universitäten und zwölf Unternehmen aus der Privatwirtschaft nach. ec3 sieht sich als multi-disziplinärer Kompetenz- und Innovationspartner für die Gestaltung und Entwicklung IKT-basierter bzw. -unterstützer Geschäftsformen mit Arbeitsschwerpunkten in den Forschungsbereichen Informationsräume, Informationslogistik, Business Intelligence, Business Development und Innovationsmanagement.
25Ausgabe 5/2004
OCG aktuell
KontaktDipl.-Ing. Rudolf J. BauerCo-Leiter Wirtschaft des OCG-Forums eLogisticsParadigma UnternehmensberatungMariahilferstr. 47/1/3, 1060 WienTel.: 01 / 585 49 [email protected]
Univ.-Doz. Dr. Karl Fröschl Leiter des OCG-Arbeitskreises eCommerceec3 - Electronic Commerce Competence CenterDonau City-Str. 1, 1220 WienTel.: 01 / 522 71 [email protected]
Ao. Univ.-Prof. Dr. Christine StraußCo-Leiterin Wissenschaft des OCG-Forums eLogisticsBetriebsWirtschaftsZentrum der Universität WienBrünner Str. 72, 1210 WienTel.: 01 / 427 73 81 [email protected]
v.l.n.r.: Am Podium: Henk van Maaren (CETIMA), Prof. Ernesto Della Salla (Teleporto Adriatico) und Dipl.-Ing. Rudolf J. Bauer, Co-Leiter Wirtschaft des OCG-Forums eLogistics
tion- und Mobility-Awareness, um mobile
Dienste an den Ort, aber auch an Orts-
wechsel anzupassen. Wireless Techno-
logien für Indoor-Szenarien, unter ihnen
WLAN-basierte Positionierung oder RFID
(radio frequency identification), werden
eingesetzt, um ortsbasierte Applikationen
zu ermöglichen. Darüber hinaus werden
Orts-Traces über die Zeit generiert und
mittels Mobilitätsmodellen interpretiert mit
dem Ziel, zukünftiges Mobilitätsverhalten
für Individuen und Gruppen voraussagen
und Dienste proaktiv daran anpassen zu
können. Frau Hummel berichtete über ein
Pilotprojekt, in dem aus aufgezeichneten
RFID-Traces Bewegungsverhalten von
Personen aufgrund auftretender Regel-
mäßigkeiten klassifiziert werden konnte.
Von diesem ersten viel versprechenden
Ergebnis lassen sich Personenprofile, die
bisher aus Eigenschaften wie fachlichen
Interessen und Berufsfeldern bestanden
haben, um fundierte Bewegungsmuster
erweitern. Diese Bewegungsmuster kön-
nen zur Simulation, zur Evaluierung, aber
auch für Aussagen über zukünftiges Be-
wegungsverhalten von Personengruppen
verwendet werden.
Supply Chain Management mit StandardsoftwareHerr Univ.-Prof. Dr. Andreas Otto (Uni-
versität Regensburg) zeigte, dass markt-
gängige Standardsoftware im Supply
Chain Management, wie beispielsweise
SAP R/3 und SAP APO, bereits wichtige
Beiträge zur Unterstützung der Auftrags-
abwicklung industrieller Unternehmen
leisten. Ihre Reichweite und Mächtigkeit
basiert auf Methoden der Verfügbarkeits-
prüfung, Transportplanung sowie ereig-
nisorientierter Umsteuerung. Wegen des
deutlichen Trends zu personalisierten
Massenprodukten wird Tracking & Tra-
cing zukünftig an Bedeutung gewinnen.
RFID: Nutzen versus RisikoNach einem Impulsreferat von Herrn Ing.
Wolfgang Peiritsch (datatronic) wurden in
der anschließend von den Teilnehmern
zum Teil emotional und sehr engagiert
geführten Forumsdiskussion und in reger
Interaktion mit den interessierten Zuhö-
rern im wesentlichen zwei Punkte heraus-
gearbeitet:
(1) Tracking & Tracing – mit oder ohne
Einsatz der RFID-Technologie – stellt
mittlerweile für jede Logistikkette eine
unabdingbare Notwendigkeit dar; diese
Entwicklung wurde durch zunehmende,
grenzüberschreitende Outsourcing-Stra-
tegien, durch vermehrt vorkommende
„gemischte“ Transportmodi innerhalb ei-
ner Supply Chain sowie durch weiterhin
steigende Handels- und Transportvolumi-
na beschleunigt.
(2) Trotz des jahrzehntelangen Bestehens
der RFID-Technologie konnte noch kein
Konsens bezüglich technischer Standards
und technischer Spezifikationen gefunden
werden. Wenngleich es bereits eine Reihe
erfolgreicher Applikationen in der Praxis
gibt, ist der Markt für diese Technologie
noch in einer frühen Entwicklungsphase
und birgt deshalb für jene Unternehmen,
die jetzt einsteigen, neben dem Bonus
des Technologievorsprungs auch ein er-
höhtes Obsoleszenzrisiko.
Die Veranstaltung wurde von Dr. Karl
Fröschl (ec3) moderiert und freundlicher
Weise von AustriaPro unterstützt.
26JOURNAL
Praxis und Wissen
Die DVD-Maxi „Edelweiß Müller“, nominiert in der KATEGORIE „CROSS MEDIA“, steht prototypisch für einen neuartigen Umgang mit audiovisuellen Informationen: Ihre Wurzeln in der Plunderphonic-Bewegung und im Audio/Video-Sampling nicht ver-leugnend, bietet diese DVD dem User eine wohl einzigartig unbeschwerliche, span-nende, lustvolle und immer auch subtil hu-morvolle Reise durch jene Klischeewelten aus Sound & Vision, die fester Bestandteil unserer Alltagskultur geworden sind, aber hier plötzlich ganz anders daherkommen. Geschickt wird Kitsch durch Entfremdung und Wiederholung zu Kunst, Referenzen werden gekappt, und es entsteht ein ganz neuer Kontext: eine digitale Anderswelt jenseits des Bekannten. Vorsicht: Diese DVD, ihre Visuals und Sounds machen süchtig! Den Studierenden Pauline Tho-mas, Clément Dozier, Christine Delaquaize und Charly Meignan von der legendären Pariser Talenteschmiede Gobelins, École de l‘image, ist „mit diesen begeisternden und ungemein kreativen Bild- und Ton-Welten ein großer Wurf gelungen“, urteilte die TTA-Jury.
Mission des Top Talent Award: Hochwertige Produkte trans-parent machen Die spezifische Bildästhetik und avan-cierte Interaktivität der Gobelins-Produkte wurde beim diesjährigen EUROPRIX Top Talent Award gleich ein zweites Mal aus-gezeichnet: Unter den acht Kategorie- siegern befindet sich eine zweite DVD aus dem Hause Gobelins: die graphisch und vom interaktiven Konzept her nicht minder faszinierende DVD-Produktion „,261001,“,
Europrix Top Talent Award 2004Eine interaktive Anderswelt
PROF. DR. PETER BRUCK PH.D, MA
eine seltsam-surreale Reise durch die Geschichte einer dem Abriss preisgege-benen Fabrik, jedoch in gleißend ästhe-tisches Licht getaucht. Dieses Produkt machte immerhin unter 112 Einreichun-gen in der KATEGORIE „OFFLINE/DVD“ das Rennen. „Allein diese beiden DVDs beweisen, wie technisch avanciert sowie inhaltlich ansprechend und komplex eini-ge derzeitige Offline-Produkte sind“, sagt TTA-Initiator Prof. Peter A. Bruck: „Diese zunächst intransparenten Silberlinge wer-den durch den Top Talent Award und sein Promotion-Umfeld zu herausragenden Best Practice Beispielen.“
Webeos und neue Formen der Interaktivität auch im NetzFreilich beschränkt sich die Möglichkeit zur Kreation surrealer Anderswelten und imaginärer Wirklichkeiten nicht auf Offline-Produkte: In der KATEGORIE „BROAD-BAND/ONLINE“ wurde etwa das Webeo (d. h. interaktive Web-Video) „Someday on the Misty Island“ aus Polen Kategoriesie-ger. Ähnlich wie bei den prämierten DVDs ermöglicht auch hier neueste Technologie eine Reise in eine Welt jenseits unserer tradierten Beschränkungen von Raum und Zeit, aber auch jenseits der klaren Un-terscheidung von Fakten und Fiktionen. „Top Talent Content Fusion Winner“ wurde – ebenfalls aus der KATEGORIE „BROAD-BAND/ONLINE“ – das schwedische Pro-jekt „Let them sing it for you“: Hier kann der User einen beliebigen Text eingeben, und dieser wird von unterschiedlichen In-
terpreten der Popgeschichte gesungen – und zwar jedes Wort von einem anderen! Auch hier kreieren User und Anwendung zusammen erst die Wirklichkeit – und auch hier werden Soundbytes im Sinne der Plunder Culture ihrer alten Referen-zen befreit und in neue Zusammenhänge überführt – gleichsam eine Cut-Up-Me-thode im Netz. Der Content Fusion-Spe-zialpreis wurde übrigens heuer zum ersten Mal vergeben und stand unter dem Motto „Music meets Multimedia“.
Kreative Interaktionsideen bei Mixed-Media-AnwendungenNeue Formen der Interaktivität, eine spie-lerisch-lustvoll-humorvolle Kreation von Wirklichkeit, eine Verführung in eine virtu-elle Anderswelt – dafür stehen die bislang erwähnten ausgezeichneten Projekte beim TTA. Neue Spielarten der Interaktivität kön-nen jedoch auch an der Grenze zum rea-len Raum erprobt werden: Dies beweisen die beiden Kategoriesieger „Interactive Projection System“ und „Kick Ass Kung-Fu“. Beim „Interactive Projection System“ aus Holland ist es der Körper des Users selbst, der das audiovisuelle Kunstwerk generiert. Eine kreative Geschäftsidee lie-fert die Designerin des in der KATEGORIE „INTERACTIVE COMPUTER GRAPHICS“ ausgezeichneten Produkts gleich mit: Man könnte ja auch interaktive Filmplakate entwerfen und diese von vorbeigehenden Passanten verändern lassen...Auch das Spiel „Kick Ass Kung-Fu“, Sie-ger in der KATEGORIE „GAMES PLAT-
Nähere Informationen zu den 23 Nominierten zum „EUROPRIX Top TalentAward 2004“ unter: www.toptalent.europrix.org/ttp/ttp.htm
Die DVD-Maxi „Edelweiß Müller“ der französischen Experi-mental-Band „Juicy Panic“ wurde zum besten Multimedia-Produkt Europas gekürt. Stereotypische Bilder und eine ver-führerische Ironie vereinen sich zu einer herrlich leichten und charmanten Reise in die Musikwelt der Plunderphonic-Be-wegung. Bei der Gala des Top Talent Awards in Wien wurden 23 Projekte aus insgesamt 414 Einreichungen aus 29 Ländern Europas ausgezeichnet.
27Ausgabe 5/2004
OCG aktuell
FORMS“, ist an der Schnittstelle zwischen realer und virtueller Realität angesiedelt:Im Möglichkeitsraum der Mixed Reality werden die klassischen Gesetze derPhysik außer Kraft gesetzt.
Und schließlich: Interaktivität bei TV & HandyNeue Interaktivitäts-Konzepte finden sich nicht nur online in enigmatischen Webeos (interaktiven Videos im Web), offline auf cool designten DVDs sowie in der Grau-zone der Mixed Reality zwischen com-putergenerierten und realen Räumen. Sie finden sich mittlerweile auch auf so „klassischen“ Medien wie TV und Mobil-telefon. In der KATEGORIE „INTERACTIVE TV, FILM & VIDEO“ machte das britische Projekt „The Green Scheme“ das Rennen: eine Geschäftsidee mit ökologischem Ne-beneffekt, bei der Konsumenten für die Rückgabe von Verpackungsmüll belohnt werden und das gleich mit Fernbedienung und TV-Bildschirm abrechnen können.Und die „Mobile Learning Engine“, entwi-ckelt von einem jungen Österreicher der FH Joanneum und bestes Produkt in der KATEGORIE „MOBILE CONTENTS“, er-möglicht es, nicht nur Lehreinheiten, son-dern auch ganze Prüfungen am Smart-phone (!) abzuhalten. Hier zeigt sich, dass Technologie auch genutzt werden kann, um Leer- und Wartezeiten sinnvoller als bislang zu verbringen.
In Zukunft sind wir alle Cyborgs!?Zu guter Letzt noch eine radikale Vision: Viel ist seit Jahren die Rede von Cyborgs, Androiden und Robots. Das Projekt „Bridging the Island of the Colourblind“, Sieger in der KATEGORIE „CONTENT TOOLS & INTERFACE DESIGN“, erlaubtes einem Farbenblinden, Farben zu hören: Eine am Kopf montierte Kamera „über-setzt“ die Farben der realen Außenwelt in Töne im Kopfhörer. Ein junger farbenblin-der Maler soll dieses System angeblich bereits 24 Stunden am Tag tragen und sich als erster behördlich anerkannter Cy-borg der Welt fühlen: der Apparat ist zum integralen Bestandteil seines Körpers ge-worden.
Also dann: Willkommen in der Zukunft!
Was gibt es Neues?
RSS-Newsfeeds der OCG!MAG. JOHANN STOCKINGER
Veränderungen im Web passieren oft still und leise – plötzlich tauchen neue Daten-formate bzw. Kommunikationsprotokolle auf und erfreuen sich rasch steigender Beliebtheit. Ein typisches Beispiel dafür ist RSS. Vor ein paar Jahren noch kaum bekannt, werden RSS-Newsfeeds bereits von vielen Informationsanbietern zur Ver-fügung gestellt. RSS kann anstrengendes Surfen auf vielen Websites ersetzen, wenn es um den schnellen Zugang zu aktuellen Informationen geht. Mit dem zunehmenden Spam-Problem bei E-Mails wird hier auch eine sichere Alternative zu herkömmlichen Newslettern geboten. Je nach RSS-Version kann unter „RSS“ verschiedenes verstanden werden: „Rich Site Summary“ steht für die 0.9x-Versio-nen, „RDF Site Summary“ für die Version 1.0 und „Really Simple Syndication“ für die Version 2.0. Mit „Atom“ wurde ein weiteres Format eingeführt, das mit RSS nicht kom-patibel ist. Die Dokumente können jedoch ineinander übergeführt werden.RSS-Newsfeeds sind sehr einfach gehal-tene XML-Dokumente, die nur reine Inhal-te und keinerlei Layout-Informationen ent-halten. Ein normaler Webbrowser würde daher nur das XML-Dokument anzeigen.
Zum Betrachten der News wird ein RSS-Reader benötigt. In der Zwischenzeit sind für die verschiedenen Betriebssysteme eine ganze Reihe von kostenlosen sowie kommerziellen RSS-Readern erhältlich. Mozilla Firefox hat bereits RSS-Reader-Funktionen eingebaut. Mit den RSS-Rea-dern kann man verschiedene RSS-Kanäle abonnieren und so z. B. die OCG-News zwischen die News vom Spiegel, der BBC und dem ORF einbetten. Wesentlich bei RSS-Newsfeeds sind die Plattformunabhängigkeit und die Weiter-verarbeitbarkeit. Unter gewissen Bedin-gungen können sie in einem Syndika-tionsprozess auch in eigene Webseiten eingebunden werden („Content Syndica-tion“). Die OCG startet vorerst mit einem RSS-Kanal und wird das Angebot bei entspre-chender Nachfrage weiter ausbauen. Ein eigener Kanal für die Veranstaltungsdaten-bank ist geplant. Auch die Einbindung von Informationen der OCG-Mitglieder wäre bei entsprechendem Interesse möglich. In der OCG werden die aktuellen Nachrichten in einer eigenen MySQL-Datenbank verwal-tet. Verschiedene PHP-Scripts generieren aus den gleichen Daten den traditionellen Newsletter und die RSS-Newsfeeds.
Die RSS-Newsfeeds der OCG können durch Anklicken des entsprechenden Icons oder direkt durch die Eingabe der Webadresse aufgerufen werden: www.ocg.at/rss/
28JOURNAL
Praxis und Wissen
Die EU arbeitet an einer Richtlinie
über Softwarepatente. Nachdem
das Parlament mehr als 120 Än-
derungsvorschläge gegenüber dem Kom-
missionsentwurf vorlegte, wurde von dieser
am 18. Mai die zweite Version vorläufig be-
schlossen. Das neu gewählten Parlament
wird diese bald behandeln.
Laut Europäischem Patentübereinkommen
(Art. 52 Abs 2 lit c EPÜ, unabhängig von der
EU! Österreich: § 1 Abs 2 Z 3 PatentG) sind
Programme für Datenverarbeitungsanlagen
„als solche“ nicht patentierbar. Dies wird in-
zwischen einschränkend so ausgelegt, dass
nur Programme alleine unpatentierbar sind,
zusammen mit einer technischen Anwen-
dung jedoch schon. So kann die Idee hinter
einem Steuerungsprogramm für Antiblo-
ckiersysteme zusammen mit diesem paten-
tiert werden, davon unabhängig aber nicht.
Je nach Interpretation des Entwurfs (auch
Juristen sind darüber uneins) bedeutet
dieser entweder Patentierbarkeit jedweder
Software oder die Beibehaltung dieses der-
zeitigen Rechtszustands (welcher sich wie-
derum oft von der Praxis unterscheidet).
Im Bereich des E-Commerce stellt sich das
Patentproblem besonders deutlich, da hier-
bei häufig grenzüberschreitende Tätigkeit
auftritt (Kooperation mit ausländischen Fir-
men, weltweit abrufbare Webseiten, ...), so-
dass die Wahrscheinlichkeit, ausländische
und daher noch schwerer aufzufindende
Patente zu verletzen, steigt, ebenso wie das
Kostenrisiko eventueller Prozesse. Hinzu
kommt, dass auf diesem Gebiet besonders
viele Patente existieren.
Problematisch ist weiters, dass (zumindest
früher, wenn nicht noch heute) die Softwa-
re-Patentprüfung von geringer Qualität war:
viele „Trivialpatente“ wurden erteilt. Hier ist
aber Vorsicht geboten; man darf eine Er-
findung nicht „im Nachhinein“ beurteilen
– manche Ideen sind nach Kenntnis trivial,
aber vorher schwer zu finden. Beispiele (sie-
he esp@cenet für Originaltext; teilw. auch
Abbildung) problematischer Patente im Be-
reich E-Commerce sind:
Verkauf von Waren oder Dienstleistun-
gen über Netzwerke mittels Computer
(EP0738446 aus 1994)
Kauf von direkt an einen Beschenkten zu
liefernden Waren über ein Kommunikati-
onsnetzwerk (EP0927945 aus 1998)
Zustandsloser Warenkorb im Internet;
gewählte Produkte werden in versteck-
ten Feldern der Webseiten mitgeschickt
(EP0807891 aus 1996)
Auswahl beliebiger Daten aufgrund ge-
ographischer Informationen (z. B. Land)
(EP1163612 aus 2000)
Vorschalten eines „Monitors“ beim Res-
sourcenzugriff zur Berechtigungsprü-
fung (EP0561509 aus 1993)
Ein kritischer Aspekt in wirtschaftlicher Hin-
sicht ist etwa folgendes Argument: Aufga-
be der EU sollte es nach ihrem Selbstver-
ständnis eher sein, Wettbewerbshemmnisse
abzubauen, als neue zu schaffen: Patente
erzeugen durch ihr Ausschließungsrecht
Monopole. Da die Mehrheit bestehender
Softwarepatente aus Ländern stammt, in
denen diese schon länger möglich waren
(USA, Japan), würde dies bedeuten, dass
Lizenzzahlungen eher von Europa dorthin
fließen als umgekehrt. Oder das Problem
der Grenzziehung: Ist Software patentierbar,
warum dann nicht auch elektronische Ge-
schäftsmethoden (oder jegliche Ideen, wie z.
B. in den USA), da diese ja in Software reali-
siert oder von dieser unterstützt werden?
Auch für freie Software könnten sich Schwie-
rigkeiten ergeben: Auf Grund kostenloser
Weitergabe ist Lizenzgebühr-Zahlung un-
möglich. Dies ist ein gutes Beispiel für Un-
terschiede zwischen Software und anderen
Produkten: Es ist kaum vorstellbar, dass
jemand massenweise Autos herstellt (dabei
entsprechende Patente verletzt) und diese
gratis verteilt. Werden sie hingegen verkauft,
kann aufgrund hoher sonstiger erforderlicher
Investitionen bzw. Kosten Patent-Recherche
und -Lizenzierung erwartet werden. Der ana-
loge Fall, Erstellung von Software (z. B. eines
Betriebssystems) und deren Gratis-Vertei-
lung ist jedoch praktisch und wirtschaftlich
sehr real und bedeutsam!
Patente auf Datenformate (wie z. B. FAT;
inzwischen aufgehoben) behindern Daten-
austausch, da ohne Lizenzierung kein Aus-
lesen (und damit Übersetzung in ein ande-
res Format) erlaubt ist: Datenaustausch mit
anderer Software (oder Systemwechsel) wird
unmöglich. Ähnliches gilt für Interoperabilität
zwischen Programmen.
Natürlich existieren auch Argumente für Soft-
ware-Patente. So sollen etwa kleine Firmen
gegenüber großen geschützt werden. Prak-
tisch stellen sich jedoch Probleme: Ein ein-
ziges Europäisches Patent für acht Staaten
(im E-Commerce leicht nötig) und zehn Jah-
re kostet laut Österreichischem Patentamt
rund € 30.000. Für viele Betriebe sind dies
wohl erhebliche Ausgaben, ebenso wie die
(ev. sehr hohen) Patentprozesskosten (Ab-
wehr fremder/Durchsetzung eigener Ansprü-
che). Sollte auch die andere Firma Patente
besitzen, können Gegenklagen erfolgen,
was Prozesskosten und -risiko weiter erhöht.
Endresultat ist dann oft gegenseitige Lizen-
zierung. Speziell Konzerne besitzen gerade
deshalb große Patent-Portfolios.
Weiters wären Softwarepatente bei klarer
Patentierbarkeit leichter auffindbar, da sie in
eine eigene Patentsystemklasse eingeordnet
würden, anstatt überall verstreut und damit
gut versteckt zu sein. Sie könnten auch Eu-
ropäische Firmen wirtschaftlich stärken, da
diese dann für ihre Erfindungen nicht nur im
Ausland sondern auch innerhalb Europas Li-
zenzgebühren verlangen könnten.
Überlegenswert sind als Abschluss die wich-
tigsten Gründe für die Existenz von Patenten:
Softwarepatente und E-CommerceMAG.IUR. DIPL.-ING. DR.TECHN. MICHAEL SONNTAG
Softwarepatente sind Patente auf Programme bzw. Algorithmen, unab-hängig von ihrer konkreten Implementierung. Im Zuge der Diskussion zu einer EU-Richtlinie darüber ist das Thema besonders für Informatiker in der Softwareentwicklung (wie schütze ich eigene Ideen bzw. ver-meide ich Rechtsverletzungen) und im E-Commerce, einem besonders beliebten Patent-Bereich, von Bedeutung.
29Ausgabe 5/2004
Praxis und WIssen
Sie sollen als Investitionsschutz für teure Ent-
wicklung dienen und die Veröffentlichung von
Ideen belohnen, sodass Andere darauf auf-
bauen können, bzw. zu weiteren angespornt
werden:
Investitionsschutz: Patente erlauben es,
hohe Entwicklungskosten wieder herein-
zubringen. Die Kosten müssen jedoch
für die Entwicklung des Algorithmus
bzw. der Idee selbst anfallen und nicht
für die Entwicklung des umsetzenden
Programmcodes (welcher stattdessen
durch Urheberrecht geschützt ist!). Als
Grundlage wird angenommen, dass bei
gleichen Ideen eine Parallelentwicklung
sehr unwahrscheinlich (Erfindungshöhe!)
und daher von „Kopien“ auszugehen ist.
Bekanntgabe der Erfindung: Eine Veröf-
fentlichung der Idee (ca. 18 Monate nach
Anmeldung) in juristischer Sprache (d. h.
für Techniker schwer verständlich), wel-
che sehr selten gelesen wird, ist nicht be-
sonders hilfreich für Weiterentwicklungen.
Ist eine Bekanntgabe der Idee überhaupt
notwendig oder ist bei Software nicht oft
die Veröffentlichung einer Implementie-
rung ausreichend? Grundlage ist die An-
nahme, dass eine Bekanntgabe der Idee
statt erfolgreicher Geheimhaltung die Ge-
samt-Entwicklung beschleunigt.
In der Diskussion darf nicht vergessen wer-
den, dass Software auch durch Urheberrecht
geschützt ist. Dieses hat sich bisher als meist
ausreichend und praktikabel erwiesen. Die
Verhinderung eigener Rechtsbrüche ist dabei
sehr einfach. Auch der Nachweis von Verlet-
zungen sowie deren Verfolgung ist praktisch
gut möglich.
Software-Patente sind ein immer bedeuten-
derer Punkt in der Informatik-Landschaft. Ob
es sich dabei jedoch um einen Aussichts-
punkt auf einem Hügel oder einen Abgrund
handelt, ist vielfach noch unklar. Vielleicht
sind sie ja auch nur (unbeachtete) Wegwei-
ser in der Ebene.
Weitere Informationen Esp@cenet (Abruf Europäischer Patente): www.espacenet.com/ Allgemeine Informationen zu Patenten: http://de.wikipedia.org/wiki/Patent Software-Patente Richtlinien-Entwurf der EU: http://europa.eu.int/smartapi/cgi/sga_
doc?smartapi!celexapi!prod!CELEXnumdoc&lg=de&numdoc=52002PC0092&model=guicheti
Über Software Patente: www.ipjur.com/, http://swpat.ffii.org/index.de.html, http://k.lenz.name/LB/
Verein zur Verbesserung des Patentwesens: www.patentverein.de/ Stellungnahme des AK Kommerzielle Software im Verband der österreichischen
Softwareindustrie: www.voesi.or.at/PositionPatente.pdf Stellungsnahme der AG „Softwarepatente“ der Wirtschaftskammer Österreich:
http://portal.wko.at/wk/dok_detail_file.wk?AngID=1&DocID=278730
KontaktMag. iur. Dipl.-Ing. Dr. techn. Michael SonntagInstitut für Informationsverarbeitung und Mikroprozessortechnik (FIM)Johannes Kepler Universität LinzAltenbergerstr. 69, 4040 LinzTel.: 0732 / 2468-9330Fax: 0732 / [email protected]
Macht braucht Vertrauen“ –das war der 8. IT Salon Pour Elle
MAG. BEATRIX HAUSNER
Der IT Salon Pour Elle, eine Initiative der Oesterreichischen Computer Ge-sellschaft und results & relations - pr for technology, lud zum vorweih-nachtlichen Netzwerkabend zum Thema „Macht“. Dr. Sabine Fischer, Sym-fony Consulting, gestaltete einen spannenden Abend, indem sie Mag. Dr. Emil Mezgolits, Vorstand Casinos Austria, und Mag. Anton Heldwein, Ju-welier, gezielt zum Thema interviewte. Mag. Barbara Werwendt von Uni-sys Austria sponserte diesen 8. IT Salon Pour Elle, der von 43 Interessenten und Interessentinnen besucht wurde.
„Macht zu haben bedeutet, eine große Porti-
on Verantwortung zu tragen“, brachte Mag.
Dr. Emil L. Mezgolits, MA, Mitglied des Vor-
standes Casinos Austria, Österreichische
Lotterien, das Thema gleich zu Beginn auf
den Punkt. Mag. Anton Heldwein, Chef eines
18-Personen-Traditionsunternehmens, stimm-
te uneingeschränkt zu. Unabhängig davon, ob
das zu führende Team eines „Machtinhabers“
groß oder klein, das Unternehmen international
Mag. Brigitte Piwonka, results & relations, Mag. Dr. Emil L. Mezgolits, Casinos Austria Österreichische Lotterien, Mag. Barbara Werwendt, Unisys Österreich GmbH, Mag. Anton Heldwein, Juwelier, Dr. Sabine M. Fischer, Symfony Consulting, Mag. Beatrix Hausner, Oesterreichische Computer Gesellschaft
Foto
: res
ults
& re
latio
ns –
pr f
or te
chnn
olgy
30JOURNAL
OCG aktuell
Rückblick auf eine erfolgreiche Karriere: Dr. Stärker (OVE) verabschiedet sich aus dem aktiven Verbandsgeschehen
TechnikinteresseSchon mit seiner Matura am Techno-
logischen Gewerbemuseum in Wien,
Abt. Starkstromtechnik, bekundete der
1943 in Wien geborene Helmut Stär-
ker sein ausgeprägtes technisches
Interesse, welches ihn auf seinem
gesamten beruflichen Lebensweg
weiter begleitete. 1971 schloss er das
Diplomstudium der Elektrotechnik an
der Technischen Universität Wien ab.
Während des anschließenden Dokto-
ratsstudiums nützte er seine Tätigkeit
als Universitätsassistent am Institut für
Elektrische Anlagen und Hochspan-
nungstechnik, um enge Kontakte zu
Industrie, Wirtschaft und branchenre-
levanten Institutionen zu knüpfen.
Im Dienste des OVE Dr. Helmut Stärker trat 1985 vorerst
als stellvertretender Generalsekretär
in den OVE ein und übernahm zwei
Jahre später die Führung des Verban-
des. Als neuer Generalsekretär initiier-
te Dr. Stärker bald Überlegungen zur
Umstrukturierung des OVE. In seiner
zwanzigjährigen Tätigkeit entwickelte
sich der Verband zu einem modernen
Dienstleistungsunternehmen, das so-
wohl nationale als auch internationale
Beachtung findet.
Beginn einer Partner-schaftIn die Amtszeit Dr. Stärkers fällt auch
der Beginn einer sehr positiven Part-
nerschaft zwischen OVE und OCG.
Seit 1989 besteht zwischen den bei-
den Vereinen eine wechselseitige Mit-
gliedschaft. Als Vertreter des Öster-
EUGEN MÜHLVENZL
Mit Jahresende tritt Baurat h.c. Senator h.c. Dipl.-Ing. Dr.techn. Helmut Stärker, Generalsekretär des Österreichischen Verbandes für Elektrotechnik (OVE), nach zwanzigjähriger Tätigkeit im und für den Verband in den wohlverdienten Ruhestand.
reichischen Verbandes für Elektrotechnik
im Vorstand der Oesterreichischen
Computer Gesellschaft hat Dr. Stärker
bei vielen Entscheidungen die Zukunft
der OCG nicht nur aktiv mitgestaltet son-
dern auch unterstützt. So übernahm im
Jahr 2003 die von Dr. Stärker ins Leben
gerufene OVE-Geschäftsstelle in Graz
zusätzlich zu ihren Tätigkeiten auch die
Agenden einer OCG-Zweigstelle für den
Süden Österreichs. Darüber hinaus um-
fasst die Kooperation die Planung und
Abwicklung gemeinsamer Veranstaltun-
gen, beispielhaft genannt sei an dieser
Stelle v. a. die AT21 des Jahres 2003 in
der Kulturhauptstadt Graz.
Die OCG dankt Dr. Helmut Stärker an
dieser Stelle für die jahrelange gute Zu-
sammenarbeit. Für seinen neuen Le-
bensabschnitt wünschen wir ihm allem
voran beste Gesundheit und viel Freude
sowie Zufriedenheit beim Ausüben seiner
zahlreichen interessanten Hobbys!
Gelebte Kooperation: Dr. Stärker bei der AT21-Gala in Graz
der sehr national agiert, Macht ist nicht immer
etwas Positives. Gerade vor Kündigung von Mit-
arbeitern, so beide Herren einhellig, sind schlaf-
lose Nächte „keine Seltenheit.“ Dennoch hat
Macht auch ihre schönen Seiten. Besonders
hervorgehoben haben beide Diskutanten die
Möglichkeit, in Führungsposition selbst gestal-
terisch tätig sein zu können. Wenngleich, auch
„Kunden mitunter Macht über mich haben“, wie
Heldwein betonte.
Die Aussagen der beiden Herren wurden vom
größtenteils weiblichen Publikum sehr hinterfragt
und mit eigenen Meinungen ergänzt. Tenor der
Gäste: Frauen stoßen an gläserne Decken und
müssten oft bis zu 250% mehr an Leistung er-
bringen als Männer. Insgesamt war der Abend ein
sehr reger und emotionaler Gedankenaustausch,
der viele Ansichten aufs Tableau brachte. Dr. Sabi-
ne Fischer, kompetente und bestens vorbereitete
Moderatorin des Abends, schloss mit einem Zitat
von Georg Bernhard Shaw (1856 – 1950): „Man
gibt immer den Verhältnissen schuld für das, was
man ist. Ich glaube nicht an die Verhältnisse. Die-
jenigen, die in der Welt vorankommen, gehen hin
und suchen sich die Verhältnisse, die sie wollen
und wenn sie diese nicht finden können, schaffen
sie sie selbst.
Zunehmend mehr Männer im IT Salon Pour ElleDie beiden IT Salon-Mütter Mag. Brigitte Pi-
wonka, Geschäftsführerin von results & relati-
ons, und Mag. Beatrix Hausner, Projektleiterin
der Oesterreichischen Computer Gesellschaft,
freuten sich auch diesmal, eine handverlesene
Schar von interessierten Männern begrüßen zu
dürfen: „Wir wollen niemanden diskriminieren
oder ausschließen“, so die beiden Initiatorin-
nen, „ganz im Gegenteil, wir freuen uns über
jeden Mann, der sich zu uns traut ;-).“
Als Sponsor wurde Unisys Österreich, Mag. Bar-
bara Werwendt, aufs das herzlichste bedankt!
KontaktMag. Beatrix Hausner 1010 Wien, Wollzeile 1-3Tel.: 01 / 512 02 [email protected]/
FAXBESTELLSCHEIN
OCG-Books NEUERSCHEINUNGEN
Embedded Systems Konwledge BaseAustria and Surrounding Regions (Band 182)€ 36,- / € 27,- (für OCG-Mitglieder)185 Seiten - ISBN 3-85403-182-3
The sixth International Conference on Information Integration and web-based Applications and Services: iiWAS´2004 (Band 183)€ 29,- / € 25,- (für OCG-Mitglieder)ca. 400 Seiten - ISBN 3-85403-183-1
The Second International Conference on Advances in Mobile MultimediaMoMM´2004 (Band 184)€ 29,- / € 25,- (für OCG-Mitglieder)ca. 400 Seiten - ISBN 3-85403-184-X
Vom himmlischen Uhrwerk zur statistischen FabrikWie waren Wittgensteins Schulnoten? Warum ist eigentlich der 20. September 1623 der Geburtstag der Informatik?Wie wurde die österreichische Volkszählung 1890 mit Rechnern unterstützt? Was ist der Zusammenhang zwischen Johannes Kepler, Weinfässern und Integralrechnung?
Adolf Adam, neu herausgegeben und erweitert von Gerhard Chroust, € 25,- / € 18,75 (für OCG-Mitglieder)190 Seiten - ISBN 3-85403-185-8
--------------------�
Zu bestellen bei der OCG, Tel.: +43 1 512 02 35, Fax: +43 1 512 02 35-9E-Mail: [email protected] oder online www.ocg.at/bookshopBitte senden Sie mir ______ Exemplar(e) des Bandes
Embedded Systems Konwledge Base Vom himmlischen Frieden zur statistischen Fabrik iiWAS´2004 MoMM´2004
Ich bin Mitglied der OCG
Name:
Adresse:
E-Mail:
Zahlungsmodalität Ich zahle mit Erlagschein Ich zahle mit Kreditkarte Mastercard VISA Kartennummer: Gültigkeit:
Forume|Government
der Oesterreichischen Computer Gesellschaft
e|Gov Days 200514. - 16. März 2005, Wien
Orangerie, Schloss Schönbrunn
Nach den Erfolgen der seit 2002 jährlich stattfindenden e|Gov Days des Forum e|Government (http://egov.ocg.at/) der Oesterreichischen Computer Gesellschaft (OCG) finden auch 2005 wieder die e|Gov Days statt. Das Forum e|Government bietet durch die Arbeit in den einzelnen Arbeitskreisen und durch die e|Gov Days Unterstützung bei der Vermittlung und Verbreitung von innovativen Ansätzen undLösungen zu E-Government. Während bisher vor allem Basisbausteine zum E-Government vorgestellt und diskutiert wurden, stehen 2005 die e|Gov Days unter dem Motto eines gesamt-heitlichen Bildes – eines „big puzzle“ für E-Government. Es werden das Zusammenspiel der Bausteine, Integration, Interoperabilität sowie nahtlose Umsetzung integrierter Lösungen in den verschiedenen Bereichen in den Fokus gerückt.
Die Schwerpunkte 2005 konzentrieren sich auf folgende Themengebiete:
E-Government – E-Partizipation – E-Politik Integration von Leistungen und Modulen – Pan-Europäische Dienstleistungen Interoperabilität – Standards – Digitale Identität – Open Source – Mobile Technolgien E-Government-Gesetz – Vertrauen, Sicherheit & Privacy E-Payment – E-Rechnung – E-Tendering – E-Procurement
In Zusammenarbeit mit der WKO wird unter dem Motto „In welcher Form antwortet die Wirtschaft auf die Herausforderungen der österreichischen E-Government-Strategie, und welche Chancenund Potenziale ergeben sich für KMUs ?“ ein halber Tag der Diskussion von Chancen, Möglich-keiten und Problemen der Wirtschaft im E-Government gewidmet.
Programmkoordination der e|Gov Days 2005:Univ.-Doz. Dr. Maria A. Wimmer, Institut für Informatik in Wirtschaft und Verwaltung der JK Universität Linz (Leitung)Dr. Bernhard Karning, Abteilung Online Services - help.gv.at im BundeskanzleramtDipl.-Ing. Peter Reichstädter, Stabsstelle IKT Strategie des Bundes / Bundeskanzleramt
Die Beiträge werden wieder von der OCG im Tagungsband zu den e|Gov Days 2005 herausgegeben.
Wie schon in den letzten beiden Jahren finden auch 2005 Eastern European e|Gov Days in Verbindung mit den österreichischen e|Gov Days 2005 statt: 17. - 18. März 2005, wiederum in Budapest.
Firmen, die an einem Industriestand während der e|Gov Days in Wien und/oder Budapest interessiert sind, können ihr Interesse bei Frau Leitner ([email protected], 01 / 512 02 35-14) anmelden.
Weitere Informationen zu den e|Gov Days 2005 finden Sie unter:
http://egov.ocg.at/
Oesterreichische Computer Gesellschaft • 1010 Wien • Wollzeile 1-3