Daten, Fakten und Software
Ein Serverkonzept für die Wissenschaft
von Peter Scherber, Gesellschaft für wissenschaftliche
Datenverarbeitung mbH Göttingen (GWDG)
Einleitung
1. Die GWDG als Rechen- und Kompetenzzentrum der Universität Göttingen
und der Max-Planck- Gesellschaft
2. Thema ist ein im Aufbau befindliches Serverprojekt. Ein Teil der
skizzierten Angebote sind bereits realisiert.
3. Angestrebt ist die Umsetzung des neuen Paradigmas im Informationsgeschäft
- Alle Informationen sollen vom PC des wissenschaftlichen Anwenders direkt
erreichbar sein
- Integration von Informationsnachweis und -lieferung
- "just in time"
- Endbenutzerorientiert
- Auflösung der traditionellen Rollenverteilung (Anbieter/Abnehmer)
- Verteilte Information, zentraler Nachweis
Vorstellung des Modells
(Folie 1)
Die Anwenderebene
- Standard IP-Clients
- Dedizierte Clients
- Standardbrowser
Internet
Die Ebene der Anwendungsserver
- FTP-Server
- MPG - Intranet
- Virtuelle WWW-Server
- Datenbanken von externen Anbietern (z.B. OVID)
- Digital Library (IBM)
- Div. Kunden-Datenbanken
- SGML-Publishing aus Dokumentdatenbank
- Bilddatenbank für Pressestelle
- Virtuelles Institut
- Weltweite Bereitstellung von Daten aus biolog. Experimenten
- MPG Zeitschriften-Nachweis
- Bibliotheks-Server
- WEBDOC-Server
- Digitalisierte Bestände
Das Backend
- Filesysteme
- Datenbankserver
- Objektserver
Welche Informationen werden vom bzw. dem
Wissenschaftler bereitgestellt
1. Anbieter und Konsumenten
2. Serverklassen
3. Applikationen
4. Konzepte
5. Kooperationen und Konditionen
6. Schwerpunkte, Informationsprofile
Verarbeitung der Informationen
1. Produktion/Beschaffung
2. Erschließung, Nachweis
3. Veränderung / Verarbeitung / Veredelung
4. Bereitstellung und Nutzung
5. Archivierung, Bestandssicherung
6. Informationsvermittlung heute: Schulung, Brokerage
Organisationsprobleme
Arbeitsteilung von Bibliotheken und Rechenzentren
Arbeitsteilung zwischen lokaler und zentraler Kompetenz
Gefahr eines neuen Zentralismus?