Jahresbericht 2006/2007Arbeitsberichte des Department Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Band 40 • Nummer 8 • Juni 2008 Jahresbericht 2006/2007 der Informatik Herausgeber: T. Brinda, M. Dal Cin, R. German, G. Görz, G. Greiner, U. Herzog, F. Hofmann, J. Hornegger, K. Leeb, R. Lenz, P. Mertens, K. Meyer-Wegener, H. Müller, H. Niemann, Ch. Pflaum, M. Philippsen, U. Rüde, F. Saglietti, H. J. Schneider, W. Schröder-Preikschat, M. Stamminger, H. Stoyan, J. Teich, R. Wanka, H. Wedekind Die Reihe der Arbeitsberichte des Department Informatik (ehem. Institut für Mathematische Maschinen und Datenverarbeitung) der Universität Erlangen-Nürnberg erscheint seit 1967. Begründet von Prof. Dr. Dr. h. c. mult. Wolfgang Händler Universität Erlangen-Nürnberg Department Informatik Martensstr. 3 91058 Erlangen Tel.: Fax.: E-Mail: WWW: +49.9131.85.28807 +49.9131.85.28781 [email protected] http://www.informatik.uni-erlangen.de/ © Universität Erlangen-Nürnberg, Department Informatik 2008 Alle Rechte bleiben vorbehalten. Nachdruck, auch auszugsweise, nur mit Genehmigung der Herausgeber. ISSN 1611-4205 Inhaltsverzeichnis 1 Einleitung 15 1.1 Emeritierte Professoren . . . . . . . . . . . . . . . . . . . . . . . . . . 16 1.2 Professoren im Ruhestand . . . . . . . . . . . . . . . . . . . . . . . . 16 1.3 Honorarprofessoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 1.4 Außerplanmäßige Professoren . . . . . . . . . . . . . . . . . . . . . . 17 1.5 Externe Lehrbeauftragte . . . . . . . . . . . . . . . . . . . . . . . . . 17 1.6 Sprecher der Kollegialen Leitung . . . . . . . . . . . . . . . . . . . . . 18 1.7 Sprecher der Studienkommission . . . . . . . . . . . . . . . . . . . . . 18 1.8 Geschäftsführer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 1.9 Forschungsschwerpunkte . . . . . . . . . . . . . . . . . . . . . . . . . 19 1.10 Veröffentlichungsreihen . . . . . . . . . . . . . . . . . . . . . . . . . . 21 1.11 Lehre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 1.11.1 Statistik zum WS 2007/2008 . . . . . . . . . . . . . . . . . . . 23 1.11.2 Exportleistung des Instituts für Informatik . . . . . . . . . . . . 23 1.11.3 CIP-Pools der Informatik . . . . . . . . . . . . . . . . . . . . . 24 1.12 Promotionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 1.13 Besondere Ereignisse 2006/2007 . . . . . . . . . . . . . . . . . . . . . 29 1.13.1 Rufe und Neubesetzungen . . . . . . . . . . . . . . . . . . . . 29 1.13.2 Preise und Auszeichnungen . . . . . . . . . . . . . . . . . . . 29 1.13.3 Dekane aus der Informatik . . . . . . . . . . . . . . . . . . . . 30 1.13.4 Zweitmitgliedschaft . . . . . . . . . . . . . . . . . . . . . . . 30 1.13.5 Gastaufenthalte . . . . . . . . . . . . . . . . . . . . . . . . . . 31 1.13.6 Tagungen/Workshops . . . . . . . . . . . . . . . . . . . . . . . 33 1.13.7 Informatik Kolloquium 2006/2007 . . . . . . . . . . . . . . . . 33 1.14 Tag der Informatik . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 1.14.1 Tag der Informatik 2006 . . . . . . . . . . . . . . . . . . . . . 35 1.14.2 Tag der Informatik 2007 . . . . . . . . . . . . . . . . . . . . . 35 1 2 3 4 5 Geschäftsstelle des Department Informatik 36 2.1 36 Aufgabenschwerpunkte . . . . . . . . . . . . . . . . . . . . . . . . . . Studien-Service-Center Informatik 37 3.1 37 Aufgabenschwerpunkte . . . . . . . . . . . . . . . . . . . . . . . . . . Lehrstuhl für Informatik 1 (Theoretische Informatik) 38 4.1 38 Forschungsschwerpunkte . . . . . . . . . . . . . . . . . . . . . . . . . Lehrstuhl für Informatik 2 (Programmiersysteme) 39 5.1 Forschungsschwerpunkte . . . . . . . . . . . . . . . . . . . . . . . . . 40 5.2 Forschungsprojekte . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 5.2.1 Reparallelisierung und Migration von OpenMP-Applikationen . 41 5.2.2 Tapir . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 5.2.3 JavaParty . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 5.2.4 ParSeMiS – die Parallele und Sequenzielle Mining Suite . . . . 46 5.2.5 Übersetzerunterstützte Parallelisierung für MehrkernArchitekturen . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 5.2.6 PARES – Optimierung für eingebettete Systeme . . . . . . . . . 49 5.2.7 Entwicklung und Anwendung von heuristischen Optimierungsverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 5.2.8 Adaptive Antennen . . . . . . . . . . . . . . . . . . . . . . . . 54 5.2.9 Optimierung von FIR-Filterstrukturen . . . . . . . . . . . . . . 55 5.2.10 Graphen und Graphtransformationen . . . . . . . . . . . . . . 56 5.2.11 Zeitplanungsalgorithmen . . . . . . . . . . . . . . . . . . . . . 58 5.2.12 Praktisches Software Engineering . . . . . . . . . . . . . . . . 59 5.2.13 International Collegiate Programming Contest an der FAU . . . 62 5.3 Publikationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 5.4 Studien- und Abschlussarbeiten . . . . . . . . . . . . . . . . . . . . . 67 2 6 Professur für Didaktik der Informatik 72 6.1 Forschungsschwerpunkte . . . . . . . . . . . . . . . . . . . . . . . . . 72 6.2 Kooperationsbeziehungen . . . . . . . . . . . . . . . . . . . . . . . . . 73 6.3 Forschungsprojekte . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73 6.3.1 Bildungsstandards der Informatik . . . . . . . . . . . . . . . . 73 6.3.2 Didaktische Systeme der Informatik . . . . . . . . . . . . . . . 75 6.3.3 FLIEG – Flexible Lehrerweiterbildung in Informatik als Erweiterungsfach für Gymnasien . . . . . . . . . . . . . . . . . . . . 77 6.3.4 Frühstudium – Schüler an der Universität . . . . . . . . . . . . 78 6.3.5 Merkmale und Dimensionen eines Kompetenzmodells der Theoretischen Informatik in der Sekundarstufe . . . . . . . . . 79 SIGNAL – Sofortprogramm Informatik am Gymnasium – Nachqualifikation von Lehrkräften (ehemals NELLI) . . . . . . . . . 80 Vermittlung informatischer Unterrichtsinhalte der Realschule mit einem Robotersystem . . . . . . . . . . . . . . . . . . . . 81 Vorgehensweise von Schülerinnen und Schülern bei der Entwicklung von Algorithmen . . . . . . . . . . . . . . . . . . . . 82 Studien- und Abschlussarbeiten . . . . . . . . . . . . . . . . . . . . . 83 6.3.6 6.3.7 6.3.8 6.4 7 Lehrstuhl für Informatik 3 (Rechnerarchitektur) 85 7.1 Forschungsschwerpunkte . . . . . . . . . . . . . . . . . . . . . . . . . 85 7.2 Forschungsrelevante apparative Ausstattung . . . . . . . . . . . . . . . 86 7.3 Forschungsprojekte . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86 7.3.1 FAUmachine . . . . . . . . . . . . . . . . . . . . . . . . . . . 86 Studien- und Abschlussarbeiten . . . . . . . . . . . . . . . . . . . . . 90 7.4 8 Lehrstuhl für Informatik 4 (Verteilte Systeme und Betriebssysteme) 92 8.1 Forschungsschwerpunkte . . . . . . . . . . . . . . . . . . . . . . . . . 93 8.2 Kooperationsbeziehungen . . . . . . . . . . . . . . . . . . . . . . . . . 94 8.3 Forschungsprojekte . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 8.3.1 AspectC++ – AOP mit C++ . . . . . . . . . . . . . . . . . . . . 95 8.3.2 AspectIX . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 3 8.3.3 Aspektorientierte Betriebssysteme (CiAO) . . . . . . . . . . . . 99 8.3.4 CoSa – Komponententechnologie für sicherheitskritische eingebettete Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . 102 8.3.5 D2AL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 8.3.6 Das JX Betriebssystem . . . . . . . . . . . . . . . . . . . . . . 104 8.3.7 FAME-DBMS – Methoden und Werkzeuge zum Bau feingranular konfigurierbarer Datenbankfamilien für Anwendungen im Bereich eingebetteter Systeme . . . . . . . . . . . . . . . . . . 106 8.3.8 KESO – Eine Java-Laufzeitumgebung für tief eingebettete Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 8.3.9 Moduswechsel hybrider Echtzeitsysteme . . . . . . . . . . . . 109 8.3.10 MOSEL – MOdelling, Specification and Evaluation Language . 110 8.3.11 Power Management . . . . . . . . . . . . . . . . . . . . . . . 114 8.3.12 Queueing Networks and Markov Chains . . . . . . . . . . . . . 119 8.4 9 Studien- und Abschlussarbeiten . . . . . . . . . . . . . . . . . . . . . 120 Lehrstuhl für Informatik 5 (Mustererkennung) 129 9.1 Forschungsschwerpunkte . . . . . . . . . . . . . . . . . . . . . . . . . 133 9.2 Forschungsrelevante apparative Ausstattung . . . . . . . . . . . . . . . 134 9.3 Kooperationsbeziehungen . . . . . . . . . . . . . . . . . . . . . . . . . 134 9.4 Wissenschaftliche Tagungen . . . . . . . . . . . . . . . . . . . . . . . 136 9.5 Veröffentlichungsreihen . . . . . . . . . . . . . . . . . . . . . . . . . . 136 9.6 Forschungsprojekte . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136 9.6.1 Aktive 3-D-Rekonstruktion . . . . . . . . . . . . . . . . . . . . 136 9.6.2 Atemgating . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138 9.6.3 Automatische Sprachanalyse von Kindern und Jugendlichen mit Lippen-Kiefer-Gaumenspalten . . . . . . . . . . . . . . . . 139 9.6.4 Automatische, objektive Analyse von Sprechstörungen von Patienten mit Plattenepithelkarzinomen der Mundhöhle . . . . . . 142 9.6.5 Bedienkonzept Nächste Generation . . . . . . . . . . . . . . . 143 9.6.6 Detektion von Lymphknoten in Ganzkörper Magnetresonanzaufnahmen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144 4 9.6.7 Entwicklung eines Expertensystems zur automatischen Bearbeitung von 3D-Oberflächenmodellen . . . . . . . . . . . . . . 147 9.6.8 Erscheinungsbasierte, statistische Objekterkennung . . . . . . . 148 9.6.9 Exakte Bildrekonstruktion aus Kegelstrahlprojektionen für Spezialtrajektorien . . . . . . . . . . . . . . . . . . . . . . . . . . 150 9.6.10 Früherkennung von Augenerkrankungen anhand von hochentwickelten bildgebenden Verfahren zur Darstellung des Augenhintergrundes . . . . . . . . . . . . . . . . . . . . . . . . . . . 152 9.6.11 Fusion von Sensordaten zur Verarbeitung von Banknoten . . . . 153 9.6.12 Health-e-Child . . . . . . . . . . . . . . . . . . . . . . . . . . 153 9.6.13 HUMAINE (Human-Machine-Interaction Network on Emotion) 155 9.6.14 Kantenerhaltende Rauschreduktion in der CT auf Basis von Korrelationsanalysen . . . . . . . . . . . . . . . . . . . . . . . 159 9.6.15 Koronarangiographie unter Verwendung von C-Arm CT . . . . 162 9.6.16 Korrektur von Intensitätsvariationen in der GanzkörperMagnetresonanztomographie . . . . . . . . . . . . . . . . . . . 164 9.6.17 Lautbildungsstörungen bei Lippen-Kiefer-Gaumenspalte . . . . 165 9.6.18 MEDICO – intelligente Bildsuche in Medizindatenbanken . . . 167 9.6.19 Optimierung von raumzeitlich basierter multimodaler Emissiontomographie in definierten Anwendungsbereichen . . . . . . 169 9.6.20 Quantitative Computertomographie mittels spektraler Detektion 170 9.6.21 Schlaganfallrisikoindexberechnung . . . . . . . . . . . . . . . 171 9.6.22 Segmentierung und Multi-Modale 3D Registrierung von CT, SPECT und Ultraschall . . . . . . . . . . . . . . . . . . . . . . 172 9.6.23 Segmentierung von Organen für Perfusions-CT . . . . . . . . . 175 9.6.24 SFB 539, A4: Automatisches Glaukom-Screening . . . . . . . 176 9.6.25 SFB 603, B2: Optimierungsansatz für die Integration von Kamerabildern bei der Klassifikation . . . . . . . . . . . . . . . . 179 9.6.26 SFB 603, B6: Rechnergestützte Endoskopie des Bauchraums . . 182 9.6.27 SFB 603, C2: Analyse, Codierung und Verarbeitung von Lichtfeldern zur Gewinnung realistischer Modelldaten . . . . . . . . 185 9.6.28 SFB 603, C10: Registrierung funktioneller und morphologischer Volumendatensätze . . . . . . . . . . . . . . . . . . . . . 187 5 9.6.29 SmartWeb . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189 9.6.30 SW-Paket zur Handgestenerkennung . . . . . . . . . . . . . . . 193 9.6.31 Techniken der Hardware-Beschleunigung für die 3D Bildrekonstruktion aus Projektionen in Kegelstrahlgeometrie . . . . . . . 195 9.6.32 Untersuchung und Bewertung der Ersatzstimme Laryngektomierter (SVcheck) . . . . . . . . . . . . . . . . . . . . . . . . 197 9.6.33 Untersuchung und Bewertung der Stimme nach Larynxteilresektion (PVcheck) . . . . . . . . . . . . . . . . . . . . . . . . 199 9.6.34 Verfahren der Mustererkennung im digitalen Sport . . . . . . . 200 9.6.35 Volumetrische Erfassung des Krankheitsverlaufs bei der autosomal dominanten, polyzystischen Nierenerkrankung (ADPKD) 201 9.7 Publikationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202 9.8 Studien- und Abschlussarbeiten . . . . . . . . . . . . . . . . . . . . . 209 10 Lehrstuhl für Informatik 6 (Datenmanagement) 217 10.1 Forschungsschwerpunkte . . . . . . . . . . . . . . . . . . . . . . . . . 218 10.2 Forschungsprojekte . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220 10.2.1 CoBRA DB (Component Based Runtime Adaptable DataBase) 220 10.2.2 Comaera . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221 10.2.3 Datenbankgestützte Prozessautomatisierung bei Software-Tests 222 10.2.4 Erlanger Glaukomregister (SFB 539, Teilprojekt Z) . . . . . . . 224 10.2.5 i6sdb – stream and data bases . . . . . . . . . . . . . . . . . . . 225 10.2.6 iArch – Integratives Architekturmanagement . . . . . . . . . . . 227 10.2.7 Prozessunterstützung in der Medizin . . . . . . . . . . . . . . . 228 10.2.8 RETAVIC – Real-Time Audio-Video Conversion . . . . . . . . 230 10.2.9 SeMeOr (Security Metric for Organization) . . . . . . . . . . . 232 10.2.10 SFB 539, Teilprojekt C5: Intelligente Vernetzung und Adaption von IT-Systemen zur Qualitätssteigerung . . . . . . . . . . . . 233 10.3 Studien- und Abschlussarbeiten . . . . . . . . . . . . . . . . . . . . . 238 11 Professur für Informatik (Datenmanagement) 6 245 12 Lehrstuhl für Informatik 7 (Rechnernetze und Kommunikationssysteme) 246 12.1 Forschungsschwerpunkte . . . . . . . . . . . . . . . . . . . . . . . . . 249 12.2 Forschungsrelevante apparative Ausstattung . . . . . . . . . . . . . . . 252 12.3 Kooperationsbeziehungen . . . . . . . . . . . . . . . . . . . . . . . . . 252 12.4 Wissenschaftliche Tagungen . . . . . . . . . . . . . . . . . . . . . . . 253 12.5 Forschungsprojekte . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254 12.5.1 Analysis Methods for Non-Markovian Models . . . . . . . . . 254 12.5.2 BioNeting – Bio-inspired Networking . . . . . . . . . . . . . . 256 12.5.3 CoCar – Cooperative Cars . . . . . . . . . . . . . . . . . . . . 258 12.5.4 Conceptual design of a UML-based tool for the simulation and test of wireless sensor networks . . . . . . . . . . . . . . . . . 259 12.5.5 HISTORY – HIgh Speed neTwork mOnitoRing and analYsis . . 261 12.5.6 Integrated Modeling Platforms for Computer Infrastructures . . 263 12.5.7 Mo.S.I.S. (Modular Software Engineering for Interoperative Systems) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 264 12.5.8 monk-it – Efficient distributed monitoring, attack detection, and event correlation . . . . . . . . . . . . . . . . . . . . . . . . . 266 12.5.9 Network Calculus and Optimization . . . . . . . . . . . . . . . 268 12.5.10 p2p4wsn – Efficient Data Management in Mobile Sensor Networks using Peer-to-Peer Technologies . . . . . . . . . . . . . 270 12.5.11 Q.E.D. (QoS Enhanced Development Using UML2.0 and TTCN-3) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271 12.5.12 Quality of Service of Networked Embedded Systems . . . . . . 272 12.5.13 ROSES – RObot assisted SEnsor networkS . . . . . . . . . . . 273 12.5.14 Security and Quality of Service and Aspects in ZigBee-based Wireless Communication . . . . . . . . . . . . . . . . . . . . . 277 12.5.15 Self-organization of SN-MRS systems . . . . . . . . . . . . . . 278 12.5.16 Sensitivity Analysis of Queueing Networks . . . . . . . . . . . 280 12.5.17 Software-in-the-Loop Simulation and Testing of Highly Dependable Distributed Automotive Applications . . . . . . . . . . . 282 12.5.18 Telematics Services in Hybrid Networks . . . . . . . . . . . . . 283 7 12.5.19 Transmission of Safety-Relevant Sensor Data in Intra-Car Communication Systems . . . . . . . . . . . . . . . . . . . . . . . 284 12.5.20 Web Cluster Laboratory . . . . . . . . . . . . . . . . . . . . . 285 12.6 Studien- und Abschlussarbeiten . . . . . . . . . . . . . . . . . . . . . 288 13 Lehrstuhl für Informatik 8 (Künstliche Intelligenz) 295 13.1 Forschungsschwerpunkte . . . . . . . . . . . . . . . . . . . . . . . . . 295 13.2 Forschungsrelevante apparative Ausstattung . . . . . . . . . . . . . . . 296 13.3 Kooperationsbeziehungen . . . . . . . . . . . . . . . . . . . . . . . . . 297 13.4 Wissenschaftliche Tagungen . . . . . . . . . . . . . . . . . . . . . . . 297 13.5 Forschungsprojekte . . . . . . . . . . . . . . . . . . . . . . . . . . . . 297 13.5.1 Abgasanlagen-Informations- und Tutor-System (AgITuS) . . . 297 13.5.2 Agentenbasiertes Tracking und Tracing der betrieblichen Leistungserstellung entlang der Wertschöpfungskette . . . . . . . . 299 13.5.3 ChuChu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 301 13.5.4 CIDOC Conceptual Reference Model (CRM) – Eine formale Referenzontologie für die Dokumentation des Kulturerbes . . . 302 13.5.5 Intelligente Textsuche für CE-Geräte mit eingeschränkter Rechen- und Speicherkapazität (INTCER) . . . . . . . . . . . . 303 13.5.6 KDA – Knowledge Discovery Assistant . . . . . . . . . . . . . 305 13.5.7 mappae: Kognitive Karten des Mittelalters . . . . . . . . . . . . 306 13.5.8 MONA – Mobile Navigation mit öffentlichen Verkehrsmitteln . 308 13.5.9 ProfiL: Ein Produktionssystem für interaktive Lernsoftware . . 309 13.5.10 SigmaStar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 310 13.5.11 SIPaDIM 2 (Forschungsverbund FORSIP: Verbundprojekt Adaptives Dialogmanagement) . . . . . . . . . . . . . . . . . . . 311 13.5.12 Sprachverarbeitung und Dialogsysteme . . . . . . . . . . . . . 314 13.5.13 Wappen-Projekt . . . . . . . . . . . . . . . . . . . . . . . . . . 318 13.5.14 WebLib . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 318 13.5.15 WW-Person . . . . . . . . . . . . . . . . . . . . . . . . . . . . 319 13.6 Publikationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 319 13.7 Studien- und Abschlussarbeiten . . . . . . . . . . . . . . . . . . . . . 319 8 14 Professur für Informatik (Künstliche Intelligenz) 323 14.1 Forschungsschwerpunkte . . . . . . . . . . . . . . . . . . . . . . . . . 323 15 Lehrstuhl für Informatik 9 (Graphische Datenverarbeitung) 324 15.1 Forschungsschwerpunkte . . . . . . . . . . . . . . . . . . . . . . . . . 325 15.2 Forschungsrelevante apparative Ausstattung . . . . . . . . . . . . . . . 326 15.3 Kooperationsbeziehungen . . . . . . . . . . . . . . . . . . . . . . . . . 326 15.4 Wissenschaftliche Tagungen . . . . . . . . . . . . . . . . . . . . . . . 326 15.5 Forschungsprojekte . . . . . . . . . . . . . . . . . . . . . . . . . . . . 327 15.5.1 Bewertung und Optimierung der visuellen Wahrnehmung in der Fahrsimulation . . . . . . . . . . . . . . . . . . . . . . . . . . 327 15.5.2 Bildbasierte Rekonstruktion . . . . . . . . . . . . . . . . . . . 328 15.5.3 CROSSMOD – Cross-Modale Wahrnehmungsbasierte Interaktion und Darstellung . . . . . . . . . . . . . . . . . . . . . . . 329 15.5.4 Fortgeschrittene 3D-Visualisierungstechniken . . . . . . . . . . 330 15.5.5 Fotorealistisches Rendering von CAD Daten . . . . . . . . . . 330 15.5.6 Globale Beleuchtungsverfahren auf Grafikhardware . . . . . . . 332 15.5.7 Interaktive Visualisierung Prozeduraler Modelle . . . . . . . . 333 15.5.8 Registriermethoden für 2D-Projektionen zur virtuellen Computertomographie in der Materialprüfung . . . . . . . . . . . . . . 335 15.5.9 SFB603 – TP A2: Hybride Flächendarstellung zur interaktiven Manipulation von CAD-Daten . . . . . . . . . . . . . . . . . . 337 15.5.10 SFB603 – TP B6: Rechnergestützte Endoskopie des Bauchraums 338 15.5.11 SFB603 – TP C2: Analyse, Codierung und Verarbeitung von Lichtfeldern zur Gewinnung realistischer Modelldaten . . . . . 340 15.5.12 SFB603 – TP C7:Adaptive Verfahren zur Berechnung und Visualisierung von mechatronischen Sensoren und Aktoren . . . . 342 15.5.13 SFB603 – TP C9: Rekonstruktion und Visualisierung neuronaler Bahnen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 344 15.5.14 Verfahren zur Steigerung der Realitätsnähe der Echtzeitvisualisierung in der Fahrsimulation . . . . . . . . . . . . . . . . . . 347 15.5.15 Volumenvisualisierung für Industrie-CT-Scanner . . . . . . . . 348 15.6 Studien- und Abschlussarbeiten . . . . . . . . . . . . . . . . . . . . . 349 9 16 Professur für Informatik (Graphische Datenverarbeitung und Visualisierung) 355 16.1 Forschungsschwerpunkte . . . . . . . . . . . . . . . . . . . . . . . . . 355 17 Lehrstuhl für Informatik 10 (Systemsimulation) 356 17.1 Forschungsschwerpunkte . . . . . . . . . . . . . . . . . . . . . . . . . 357 17.2 Forschungsrelevante apparative Ausstattung . . . . . . . . . . . . . . . 359 17.3 Kooperationsbeziehungen . . . . . . . . . . . . . . . . . . . . . . . . . 359 17.4 Wissenschaftliche Tagungen . . . . . . . . . . . . . . . . . . . . . . . 362 17.5 Forschungsprojekte . . . . . . . . . . . . . . . . . . . . . . . . . . . . 363 17.5.1 Beweistheorie in der Deskriptiven Komplexitätstheorie . . . . . 363 17.5.2 Datenlokale Iterationsverfahren zur effizienten Lösung partieller Differentialgleichungen . . . . . . . . . . . . . . . . . . . . 364 17.5.3 FreeWiHR – Simulation von Metallschäumen . . . . . . . . . . 366 17.5.4 HHG: Hierarchische Hybride Gitter . . . . . . . . . . . . . . . 368 17.5.5 Intraoperative Simulation der Hämodynamik in Aneurysmen im menschlichen Gehirn . . . . . . . . . . . . . . . . . . . . . . . 369 17.5.6 Mehrgitterverfahren für ab initio Molekülardynamiksimulationen 370 17.5.7 Mehrgitterverfahren in der Bildverarbeitung . . . . . . . . . . . 371 17.5.8 Parallele Löser und effiziente Diskretisierungsmethoden für bioelektrische Feldberechnungen . . . . . . . . . . . . . . . . . 374 17.5.9 ParExPDE II – Effiziente objekt-orientierte Mehrgitterverfahren und Anwendungen . . . . . . . . . . . . . . . . . . . . . . . . 375 17.5.10 Verbesserung der Zuverlässigkeit von Computersimulationen bei der Vorhersage von Umweltrisiken . . . . . . . . . . . . . . 377 17.5.11 waLBerla . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 378 17.6 Projektunabhängige Publikationen . . . . . . . . . . . . . . . . . . . . 379 17.7 Studien- und Abschlussarbeiten . . . . . . . . . . . . . . . . . . . . . 382 18 Professur für Informatik Höchstleistungsrechnern) (Numerische Simulation mit 385 18.1 Forschungsschwerpunkte . . . . . . . . . . . . . . . . . . . . . . . . . 385 10 18.2 Kooperationsbeziehungen . . . . . . . . . . . . . . . . . . . . . . . . . 385 18.3 Forschungsprojekte . . . . . . . . . . . . . . . . . . . . . . . . . . . . 386 18.3.1 Expression Templates für partielle Differentialgleichungen . . . 386 18.3.2 Innovatives Netzwerk:Simulation und Optimierung innovativer Lasersysteme (SOL) . . . . . . . . . . . . . . . . . . . . . . . 387 18.3.3 Numerische Simulation von Halbleiterlasern mit Hilfe von Finiten Elementen . . . . . . . . . . . . . . . . . . . . . . . . . 389 18.3.4 Numerische Simulation von Lasern . . . . . . . . . . . . . . . 390 19 Lehrstuhl für Informatik 11 (Software Engineering) 391 19.1 Forschungsprojekte . . . . . . . . . . . . . . . . . . . . . . . . . . . . 400 19.1.1 Analyse und Vergleich von Verfahren zur Leistungsbewertung von Softwaresystemen . . . . . . . . . . . . . . . . . . . . . . 400 19.1.2 Anforderungsanalyse und Implementierung von Störfallsimulatoren . . . . . . . . . . . . . . . . . . . . . . . . 400 19.1.3 Automatische datenflussorientierte Testfallerzeugung für objekt-orientierte Softwaresysteme mittels evolutionärer Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 401 19.1.4 Automatische Testdatengenerierung zur Unterstützung inkrementeller modell- und codebasierter Testprozesse für hochzuverlässige Softwaresysteme . . . . . . . . . . . . . . . . . . . 406 19.1.5 Erkennung selten auftretender Softwarefehler durch Last-Tests von Kommunikationssystemen . . . . . . . . . . . . . . . . . . 409 19.1.6 Erzielung und Bewertung software-ergonomischer Merkmale in den frühen Spezifikations- und Entwurfsphasen . . . . . . . . . 410 19.1.7 Integrationstest komponentenbasierter Software . . . . . . . . . 411 19.1.8 Musterbasierte Analyse und Korrektur von Trace-Anomalien . . 412 19.1.9 Offline-Debugging für Continuous Function Charts . . . . . . . 414 19.1.10 Softwarezuverlässigkeitsbewertung unter Berücksichtigung der mit vorgefertigten Komponenten gewonnenen Betriebserfahrung 415 19.1.11 Toolgestützte Integration vorgefertigter Softwarekomponenten auf Basis einer erweiterten Beschreibungssprache . . . . . . . . 417 19.1.12 Vergleichende Bewertung unterschiedlicher Authentifizierungsstrategien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 420 11 19.1.13 Verifikation komponentenbasierter Softwaresysteme unter Einbeziehung bewiesener Komponenteneigenschaften . . . . . . . 421 19.2 Publikationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 423 19.3 Studien- und Abschlussarbeiten . . . . . . . . . . . . . . . . . . . . . 423 20 Lehrstuhl für Informatik 12 (Hardware-Software-Co-Design) 426 20.1 Forschungsschwerpunkte . . . . . . . . . . . . . . . . . . . . . . . . . 428 20.2 Kooperationsbeziehungen . . . . . . . . . . . . . . . . . . . . . . . . . 432 20.3 Forschungsprojekte . . . . . . . . . . . . . . . . . . . . . . . . . . . . 433 20.3.1 AIS – Autonome Integrierte Systeme . . . . . . . . . . . . . . . 433 20.3.2 Approximationsalgorithmen . . . . . . . . . . . . . . . . . . . 434 20.3.3 Architekturmodellierung und Exploration von Algorithmen für die medizinische Bildverarbeitung . . . . . . . . . . . . . . . . 435 20.3.4 Automatische Generierung von Testfällen aus formalen Spezifikationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 435 20.3.5 Co-Design massiv parallel eingebetteter Prozessorarchitekturen 436 20.3.6 Effiziente Nutzung von Ressourcen in parallelen Systemen . . . 436 20.3.7 Entwicklung einer FPGA-Erweiterungsplatine für die medizinische Bildverarbeitung . . . . . . . . . . . . . . . . . . . . . . 437 20.3.8 Entwurf anwendungsspezifischer Prozessoren . . . . . . . . . . 438 20.3.9 Entwurf dedizierter massiv paralleler Systeme . . . . . . . . . . 440 20.3.10 Entwurfsmethodik für gemischt zeitgesteuerte und ereignisgetriebene Steuergerätearchitekturen – Modellierung, Optimierung und Implementierung . . . . . . . . . . . . . . . . . . . . 442 20.3.11 Fertigungsorientierte Entwurfsmethodik für Software eingebettet in Komponenten mobiler Systeme . . . . . . . . . . . . . . 444 20.3.12 Hardware/Software-Implementierungen des Motion JPEG2000 Standards . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 445 20.3.13 Partikelschwarm-Optimierung . . . . . . . . . . . . . . . . . . 446 20.3.14 ReCoNets – Entwurfsmethodik für eingebettete Systeme bestehend aus kleinen Netzwerken hardwarerekonfigurierbarer Knoten und -verbindungen . . . . . . . . . . . . . . . . . . . . . . 447 12 20.3.15 ReCoNodes – Optimierungsmethodik zur Steuerung hardwarekonfigurierbarer Knoten . . . . . . . . . . . . . . . . . . . . . 449 20.3.16 ReKoSys: Kognitive eingebettete Systeme auf Basis dynamisch rekonfigurierbarer Hardware . . . . . . . . . . . . . . . . . . . 452 20.3.17 SpecVer: Verifikationsgerechte Spezifikation komplexer Systeme 454 20.3.18 SystemCoDesigner: Entwurfsraumexploration für eingebettete Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 454 20.3.19 SysteMoC: Darstellung von Berechnungsmodellen in SystemC . 455 20.3.20 Untersuchungen und Arbeiten im Bereich SystemC Schulungen und IC-Design . . . . . . . . . . . . . . . . . . . . . . . . . . 456 20.4 Publikationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 456 20.5 Studien- und Abschlussarbeiten . . . . . . . . . . . . . . . . . . . . . 469 21 Professur für Informatik mit dem Schwerpunkt Effiziente Algorithmen und Kombinatorische Optimierung 475 22 Informatik-Forschungsgruppe M (Medizinische Informatik) 476 22.1 Forschungsschwerpunkte . . . . . . . . . . . . . . . . . . . . . . . . . 477 22.2 Forschungsrelevante apparative Ausstattung . . . . . . . . . . . . . . . 477 22.3 Kooperationsbeziehungen . . . . . . . . . . . . . . . . . . . . . . . . . 477 22.4 Forschungsprojekte . . . . . . . . . . . . . . . . . . . . . . . . . . . . 478 22.4.1 Aufgaben und Architekturen einrichtungsweiter Bilddatenmanagementsysteme in der Medizin . . . . . . . . . . . . . . . . . 478 22.4.2 Evaluation von Informationssystemen im Gesundheitswesen . . 479 22.4.3 Intelligente Vernetzung und Adaption von IT-Systemen zur Qualitätssteigerung der Behandlung von Glaukompatienten . . . 481 22.4.4 Konzeption und Aufbau eines Internet-Portals für ein Forschungsnetz in der Medizin . . . . . . . . . . . . . . . . . . . 484 22.4.5 OPAL Health: Optimierte und sichere Prozesse durch mobile und intelligente Überwachung und Lokalisierung von Betriebsmitteln und Inventar in Kliniken und Krankenhäusern . . . . . . 485 22.4.6 Pathifier: ein Werkzeug zur Visualisierung klinischer Behandlungsabläufe . . . . . . . . . . . . . . . . . . . . . . . . . . . 487 13 22.4.7 Prozessmodellierung/Prozessoptimierung: Erstellung eines prozessbasierten QM-Handbuchs . . . . . . . . . . . . . . . . . . 488 22.4.8 Verbesserung des Dokumentations- und Berichtswesens im Kontext der DRG-basierten Abrechnung . . . . . . . . . . . . . 489 22.4.9 WHO/European eHealth Consumer Trends Survey . . . . . . . 491 22.4.10 Wissensverarbeitende Systeme / Wissensmodellierung in der Medizin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 492 22.5 Projektunabhängige Publikationen . . . . . . . . . . . . . . . . . . . . 493 23 Informatik Sammlung Erlangen (ISER) 494 A Arbeitsberichte des Departments Informatik 1999 – 2007 502 14 1 Einleitung Das Department Informatik“ wurde 1966 unter dem Namen Institut für Mathemati” ” sche Maschinen und Datenverarbeitung“ gegründet und der neu eröffneten Technischen Fakultät zugeordnet. Es gehört damit zu den ältesten Departments dieser Art. Acht seiner zwölf Lehrstühle sind untergebracht im Wolfgang-Händler-Hochhaus“, benannt ” nach Prof. Dr. rer. nat. Dr. h. c. mult. Wolfgang Händler, Inhaber des ersten Erlanger Lehrstuhls für Informatik und Gründer des Departments. Seit 1972 ist das Department kontinuierlich gewachsen auf nunmehr zwölf Lehrstühle und eine Forschungsgruppe: Informatik 1 Informatik 2 Informatik 3 Informatik 4 Informatik 5 Informatik 6 Informatik 7 Informatik 8 Informatik 9 Informatik 10 Informatik 11 Informatik 12 Theoretische Informatik (Prof. Dr. K. Leeb) Programmiersysteme (Prof. Dr. M. Philippsen, Prof. Dr. T. Brinda) Rechnerarchitektur (N.N., Komm. Leitung: Prof. Dr. M. Philippsen, seit 01.10.2005) Verteilte Systeme und Betriebssysteme (Prof. Dr.-Ing. W. Schröder-Preikschat) Mustererkennung (Prof. Dr.-Ing. J. Hornegger) Datenmanagement (Prof. Dr.-Ing. K. Meyer-Wegener, Prof. Dr.Ing. R. Lenz) Rechnernetze und Kommunikationssysteme (Prof. Dr.-Ing. R. German) Künstliche Intelligenz (Prof. Dr. H. Stoyan, Prof. Dr.-Ing. G. Görz) Graphische Datenverarbeitung (Prof. Dr. G. Greiner, Prof. Dr.-Ing. M. Stamminger) Systemsimulation (Prof. Dr. U. Rüde, Prof. Dr. Ch. Pflaum) Software Engineering (Prof. Dr. F. Saglietti) Hardware-Software-Co-Design (Prof. Dr.-Ing. J. Teich, Prof. Dr. R. Wanka) 15 Informatik M 1.1 Forschungsgruppe Medizininformatik (Prof. Dr. H.-U. Prokosch, Inhaber des Lehrstuhls für Medizinische Informatik an der Medizinischen Fakultät und Leiter des Med. Zentrums für Informations- und Kommunikationstechnik (seit 01.01.2005)) Emeritierte Professoren • Prof. em. Dr. H. Wedekind (30.09.2001) • Prof. em. Dr. H. J. Schneider (30.09.2002) • Prof. em. Dr. F. Hofmann (31.03.2003) • Prof. em. Dr.-Ing. H. Niemann (30.09.2005) • Prof. em. Dr. P. Mertens; Zweitmitglied aus der WiSo (30.09.2005) 1.2 Professoren im Ruhestand • Prof. Dr.-Ing. U. Herzog (31.03.2004) • Prof. Dr. M. Dal Cin (30.09.2005) 1.3 Honorarprofessoren • Prof. Dr. H. Billing • Prof. Dr.-Ing. H. Fromm (IBM Sindelfingen) • Prof. Dr. Bernd Hindel (methodpark software AG) • Prof. Dr.-Ing. M. Kaiserserth (IBM) • Prof. Dr. G. Nees (Siemens AG, Erlangen) • Prof. Dr.-Ing. Detlef Kips (BASYS GmbH) 16 1.4 Außerplanmäßige Professoren • Prof. Dr. D. Schütt (Siemens AG, München) • Prof. Dr. V. Strehl (Department Informatik) 1.5 Externe Lehrbeauftragte • Dipl.-Ing. Samir Al-Hilank, develop group BASYS GmbH • Elli Angelopoulou Ph.D., Stevens Institut of Technology, USA • Dr. Raymond Bimazubute, DATEV Nürnberg • Dr.-Ing. Klaudia Dussa-Zieger, method park Software AG • Dr.-Ing. Ingrid Fischer • Dipl.-Ing. Hans Holm Frühauf, Fraunhofer IIS • Dipl.-Wirtinf. Christian Graubner, sciNOVIS Fürth • Dr.-Ing. Uwe Hehn, method park Software AG • Dr.-Ing. Georg Heidenreich, Siemens Medical Solutions • Dr. rer. nat. Björn Heismann, Siemens Medical Solutions • Prof. Dr. Stefan Jablonski, Universität Bayreuth • Prof. Michael Jostmeier, FH Nürnberg • Dr.-Ing. Martin Jung, develop group BASYS GmbH • Wolfgang Keller, FH Nürnberg • Dr. Martin Klarner, Elektrobit Erlangen • PD Dr. Gabriella Kokai, Elektrobit Automotive Software • Dr.-Ing. Markus Kowarschik, Siemens Medical Solutions • Dr. rer. nat. Klaus Kreisel, Emmy-Noether-Gymnasium • Dr. rer. nat. Ralph Kummetz, 3SOFT GmbH • Dr. rer. nat. Stefan Mayer, MSC.Software GmbH 17 • Dr. Michael Müller, sciNOVIS Fürth • Dr.-Ing. Jörg Nilson, 3SOFT GmbH • PD Dr. Thomas Ruf, GfK Marketing Services GmbH Nürnberg • Dr.-Ing. Michael Scheuering, Siemens Medical Solutions • Dr. Karsten Schmidt, AUDI AG • Dr. Josef Schneeberger, SCHEMA GmbH • Dipl.-Inf. Oliver Scholz, Fraunhofer IIS • Prof. Jürgen Schopper, FH Nürnberg • Dr.-Ing. Georg Stemmer, Siemens AG, Corporate Technology, IC 5 • Dr.-Ing. Michael Tielemann, DATEV Nürnberg • Dr. rer. nat. Gerhard Wellein, RRZE • Dr.-Ing. Thomas Wittenberg, Fraunhofer IIS • Dr.-Ing. Ulrich Zahner, Siemens AG TS • Dr. Alexander Pflaum, Fraunhofer IIS 1.6 Sprecher der Kollegialen Leitung Geschäftsführender Vorstand des Instituts für Informatik war vom 01.10.2005 – 30.09.2006 Herr Prof. Dr.-Ing. Wolfgang Schröder-Preikschat und vom 01.10.2006 – 30.09.2007 Herr Prof. Dr.-Ing. Jürgen Teich. Mit der Umstrukturierung der Universität wurde das Institut für Informatik ab 01.10.2007 zum Department Informatik und das Amt des Geschäftsführenden Vorstands zum Amt des Sprechers der Kollegialen Leitung. Dieses Amt wurde ab 01.10.2007 von Herrn Prof. Dr.-Ing. Reinhard German übernommen. 1.7 Sprecher der Studienkommission Sprecher der Studienkommission Informatik ist Prof. Dr. rer. nat. Rolf Wanka. 18 1.8 Geschäftsführer Nach dem Ausscheiden von Herrn Dr.-Ing. Claus-Uwe Linster wurde die Geschäftsführung zunächst kommissarisch von Herrn Dr.-Ing. Jürgen Kleinöder übernommen. Ab 01.12.2007 wurde die Stelle mit Herrn Dr. rer. pol. Christian Brosch besetzt. 1.9 Forschungsschwerpunkte Das Department Informatik zeichnet sich durch eine ausgeprägte Vernetzung mit den anderen Departments der Fakultät aus. Seine Lehrstühle decken die Grundlagen und Spezialthemen der Informatik umfassend in Forschung und Lehre ab und nehmen im nationalen und internationalen Vergleich eine herausragende Stellung ein. Zentrale und zukunftsweisende Forschungsthemen des Departments Informatik sind: • Eingebettete Systeme • Medizintechnik • Analyse und Synthese von Sprach- und Bilddaten • Wissens- und Datenmanagement • Kommunikation und Verteilte Systeme • Modellierung und Simulation • High Performance Computing • Software Reliability Engineering Enge Kooperation und gemeinsame Arbeitsgruppen bestehen mit dem Fraunhofer IIS in den Bereichen • Autonome Systeme • Adaptive Systemsoftware • Hardware-Software-Co-Design • Bildverarbeitung und Medizintechnik 19 • System Design Darüber hinaus ist das Institut an folgenden Forschungsverbünden und Sonderforschungsbereichen beteiligt: • ESI (http://www.esi.uni-erlangen.de) Embedded Systems Institute“ ” • INI.FAU (http://www.ini.fau.de) Ingolstadt Institute der Friedrich-Alexander-Universität Erlangen-Nürnberg“ ” • KONWIHR (http://konwihr.in.tum.de) Kompetenznetzwerk für Technisch-Wissenschaftliches ” Höchstleistungsrechnen in Bayern“ Hoch- und • IMPRS-OI (http://www.ioip.mpg.de/imprs/) International Max-Planck-Research School for Optics and Imaging“ ” • DFG Projekt GR 796/2-2 Modellbasierte Registrierung zur Simulation und Visualisierung von Brain Shift ” Phänomenen bei neurochirurgischen Eingriffen“ • FORSIP (http://www.forsip.de) Bayerische Forschungsverbund für Situierung, Individualisierung und Persona” lisierung in der Mensch-Maschine-Interaktion“ • Sonderforschungsbereich 539 (http://www.sfb539.forschung.uni-erlangen.de) Glaukome einschließlich Pseudeoexfoliations-Syndrom (PEX)“ ” • Sonderforschungsbereich 603 (http://sfb-603.uni-erlangen.de) Modellbasierte Analyse und Visualisierung komplexer Szenen und Sensordaten“ ” • BEO-Projekt, Bereich 43, Vorhaben 0327324A Forschungszentrum Jülich GmbH Entwicklung und Einsatz von Softwareprogrammen zum Bau energiesparender ” Industrieöfen für die Werkstoffherstellung und Kristallzüchtung“ • Sonderforschungsbereich 694 (http://www.qfm.uni-erlangen.de) Intelligente und zuverlässige Elektronik fürs Auto“ ” 20 • DFG Schwerpunktprogramm 1148 Rekonfigurierbare Rechensysteme“ ” • AIS im Rahmen des BMBF-Förderkonzepts ”´Nanoelektronik“ • ReKoSys: Kognitive eingebettete Systeme auf Basis dynamisch rekonfigurierba” rer Hardware“ Bayerisches Staatsministerium für Wirtschaft, Infrastruktur, Verkehr und Technologie • Bayerische Forschungsstiftung SpecVer – Verifikationsgerechte Spezifikation komplexer Systeme“ ” • DFG P2R Projekt CoMap: Co-Design of Massively Parallel Embedded Processor Architectures“ ” Die Vielzahl von industriellen Kooperationsbeziehungen ist jeweils bei den Lehrstühlen dokumentiert. 1.10 Veröffentlichungsreihen Arbeitsberichte des Departments Informatik (ISSN 1611-4205) 1.11 Lehre Die rasante Entwicklung der Informationsverarbeitung hat unser Leben und Arbeiten, unser Wirtschaften und Handeln verändert wie kaum eine Technologie zuvor. Die Auswirkungen aktueller Trends wie Multimedia, Virtual Reality, Internet oder eingebettete Systeme auf unsere Gesellschaft sind enorm. Kontinuierlich werden leistungsfähigere Prozessoren, größere Speicher, schnellere Netzwerke und komplexere Softwareprodukte angeboten, die neue Kommunikations-, Lern- und Arbeitsformen in jedem Haushalt und an jedem Arbeitsplatz verfügbar machen. Die Schlüsselrolle in dieser Entwicklung spielt die Informatik. Sie beschäftigt sich mit Hardware, Software und Organisation von Rechnersystemen und -netzen, mit der Repräsentation und der Verarbeitung von Daten, mit der Akquisition und Nutzung von problemspezifischem Wissen und mit den Auswirkungen des Einsatzes solcher Systeme auf Nutzer und Betroffene. Dabei abstrahiert die Informatik von den Besonderheiten der einzelnen Anwendungen und Architekturen und analysiert die grundlegenden theoretischen Konzepte und Methoden, um sie beim Entwurf neuer Systeme einzusetzen. 21 Informatik ist so als umfassende Grundlagen- und Querschnittsdisziplin zu verstehen, die sich mit den technischen, den organisatorischen und den gesellschaftspolitischen Fragen der Entwicklung und Nutzung von Systemen der Informationstechnik befasst. Zielsetzung und Arbeitsweise kennzeichnen sie als Ingenieurwissenschaft. Ihre anwendungsbezogenen Teildisziplinen reichen von der Wirtschafts-, der Rechtsund Verwaltungsinformatik über die medizinische Informatik bis zu den Gebieten Computational Science und Computational Engineering. Mit ihren Methoden der Formalisierung, der Modellbildung und der Simulation erschließt sie neue Denk- und Arbeitsweisen in allen Bereichen der Natur- und Geisteswissenschaften und der Technik. Da die Ingenieurdisziplin Informatik auch in Zukunft die Dynamik der Innovationen maßgeblich bestimmen wird, haben Absolventen ausgezeichnete Berufsperspektiven. Das Department Informatik bietet folgende Studiengänge an: • Informatik (Bachelor, Master und Diplom) • Informatik Lehramt • Computational Engineering (Bachelor und Master) • Informations- und Kommunikationstechnik (Bachelor, Master und Diplom) Der interdisziplinäre Studiengang Informations- und Kommunikationstechnik wird gemeinsam vom Department Informatik und dem Department Elektrotechnik, Elektronik und Informationstechnik getragen. Ab dem Sommersemester 2009 wird der Einstieg in den Bachelor-Studiengang Informatik auch zum Sommersemester möglich sein. In Kooperation mit der TU-München werden zwei von der Bayerischen Staatsregierung eingerichtete Elite-Studiengänge angeboten: • Bavarian Graduate School of Computational Engineering • Systeme der Informations- und Multimediatechnik Informationen zum aktuellen Vorlesungsangebot stehen im UnivIS (http://univis.unierlangen.de). 22 1.11.1 Statistik zum WS 2007/2008 Nachfolgende Tabelle zeigt die Neueinschreibungen im WS 2007/2008 und die Gesamtzahl der Studierenden im WS 2007/2008 für die jeweiligen Studiengänge. Studiengang Informatik Diplom Informatik Bachelor Computational Engineering Bachelor Computational Engineering Master Informations- und Kommunikationstechnik Diplom Informations- und Kommunikationstechnik Bachelor Informatik Lehramt Summe 1.11.2 Neueinschreibungen 6 97 33 24 0 62 17 239 Exportleistung des Instituts für Informatik in die Ingenieurwissenschaften: • Werkstoffwissenschaften • Maschinenbau • Elektrotechnik, Elektronik und Informationstechnik • Mechatronik • Wirtschaftsingenieurwesen • Chemie-/Bio-Ingenieurwesen in andere Bereiche: • Naturwissenschaften • Mathematik • Linguistik • Wirtschaftsinformatik • Medizininformatik • weitere Studiengänge der Philosophischen Fakultäten 23 Gesamtzahl 457 97 66 61 173 62 58 974 1.11.3 CIP-Pools der Informatik Der CIP-Pool der Informatik gliedert sich in 4 Räume: Terminal-/Klassenraum 01.153 Klassenraum 01.155 28 Arbeitsplätze (Dual-Boot Windows/Linux) 40 Arbeitsplätze (PCs/Linux) 18 Arbeitsplätze (Sun Rays) Klassenraum 01.155-NB 13 Arbeitsplätze (PCs/Linux) Klassenraum 02.151 20 Arbeitsplätze (PCs/Linux, Grafikrechner) 25 Arbeitsplätze (PCs/Linux) 26 Arbeitsplätze (Sun Rays) Gesamtanzahl Clients 170 Anzahl Server 11, ausschließlich Mehrprozessorsysteme Plattenkapazität auf den Servern 6 TByte, davon 800 GByte für Videoüberwachung Rechnernetz 1 GBit/s zwischen den Servern, 100 MBit/s zu den Clients Verantwortlich für den Betrieb ist der Geschäftsführer des Departments Informatik, wobei der Lehrstuhl für Verteilte Systeme und Betriebssysteme den technischen Background liefert. Der eigentliche“ Betrieb, wie ” • Hardware- und Softwarepflege • Verwaltung des Zugangs- und Überwachungssystems • Sprechstunden für Benutzer • Pflege der CIP-Pool-Website • Entwicklung von System-Verwaltungswerkzeugen wird – weitestgehend autark – von einer außerordentlich engagierten Gruppe von studentischen Hilfskräften sichergesetellt: Johannes Schlumberger, Rainer Sennwitz, Klaus Stengel, Rolf Weber und Alexander Würstlein Insgesamt werden ca. 500 Informatik-Benutzeraccounts Nichtinformatiker-Benutzeraccounts betreut. und ca. 3600 Der Zugang zu den CIP-Pools ist 24h/7Tage möglich; während der Schließzeiten des Gebäudes mit einem Kartenzugangssystem. 24 Alle Räume und Flure sind videoüberwacht. Die Aufzeichnungskapazität umfasst drei Wochen, was einem komprimierten Datenvolumen von etwa 350 GByte entspricht. Im Berichtszeitraum wurde ein Windows-CIP-Pool eingerichtet, in dem die Übungsleiter die Möglichkeit haben, bei Bedarf das Betriebssystem zwischen Linux und Windows umzuschalten. Des Weiteren wurde ein leistungsfähiger Farblaserdrucker angeschafft. 1.12 Promotionen Promotionen am Lehrstuhl für Programmiersysteme • Ittner, Jan Softwaregestütztes Anpassen von Prozessbeschreibungen, 23.03.2006 • Hardung, Bernd Michael Optimierung der Zuordnung von Funktionen in Fahrzeugnetzwerken, 03.11.2006 Promotionen am Lehrstuhl für Rechnerarchitektur • Sand, Matthias Patternbasierte Verifikation objektorientierter Modelle – Methodik, Semantik und Verfahren, 04.12.2006 Promotionen am Lehrstuhl für Verteilte Systeme und Betriebssysteme • Essafi, Lassaad Performance Analysis of Time Dependent Priorities and Application to Differentiated Services and Call Centers Lehrstuhl für Verteilte Systeme und Betriebssysteme, 30.03.2006 • Weißel, Andreas Operating System Services for Task-Specific Power Management (Betriebssystemdienste für eine anwendungsspezifische Energieverwaltung), 21.12.2006 • Gilani, Syed Wasif Ur Rehman Ein familienbasierter dynamischer Aspektweber, 27.04.2007 25 • Kubica, Stefan Sascha Variantenmanagement modellbasierter Produktlinien, 25.07.2007 Funktionssoftware mit Software- • Frieß, Wolfgang Helmut Integration von konfigurierbaren Softwaremodulen in eingebettete Systeme, 01.08.2007 • Kapitza, Rüdiger Entwicklung und Betrieb dezentraler adaptiver Dienste, 21.09.2007 Promotionen am Lehrstuhl für Mustererkennung • Vogt, Florian Augmented Light Field Visualization and Real-Time Image Enhancement for Computer Assisted Endoscopic Surgery (Erweiterte Lichtfeld-Visualisierung und Echtzeit-Bildverbesserung für computerassistierte endoskopische Operationen), 12.07.2006 • Schmidt, Jochen 3-D Reconstruction and Stereo Self-Calibration for Augmented Reality (3-D Rekonstruktion und Stereo-Selbstkalibrierung in der erweiterten Ralität), 16.11.2006 • Grzegorzek, Marcin Jerzy Erscheinungsbasierte, statistische Objekterkennung mit Farb- und Kontextmodellierung, 03.04.2007 • Haderlein, Tino Automatische Bewertung tracheoösophagealer Ersatzstimmen, 31.10.2007 Promotionen am Lehrstuhl für Datenmanagement • Mayer, Udo Aufbau einer Wissenskomponente für das aspektorientierte Prozessmanagement, 15.12.2006 • Lay, Rainer Ernst Effiziente Umsetzung klinischer Studien domänenspezifischen Methoden, 02.02.2007 26 mit modellorientierten und • Müller, Sascha Modellbasierte IT-Unterstützung von wissensintensiven Prozessen – Dargestellt am Beispiel medizinischer Forschungsprozesse, 16.02.2007 • Meyerhöfer, Marcus Bernd Messung und Verwaltung von Softwarekomponenten für die Performancevorhersage, 12.07.2007 Promotionen am Lehrstuhl für Rechnernetze und Kommunikationssysteme • Kuntz, Matthias Symbolic Semantics and Verification of Stochastic Process Algebras, 02.02.2006 • Nägele-Jackson, Susanne Gisela Transmissions Netzwerk Dienstqualität (QoS) und Qualitätswahrnehmung bei komprimierten und unkomprimierten hochauflösenden Videoübertragungen, 14.11.2006 • Truchat, Sébastien Rekonfiguraton von mobilen autonomen Diensten in heterogener Umgebung, 12.12.2006 • Lampka, Kai Mathias Ein symbolischer Ansatz für die Zustandsgraph-basierte Analyse von hochsprachlichen Markov Reward Modellen, 19.03.2007 • Kerber, Kai Lennard Performance Message Sequence Chart – Sprache zur Leistungsvorhersage mittels der Generierung eines Prototypen im Kontext des Protokollentwurfs mit SDL und MSC, 26.06.2007 Promotionen am Lehrstuhl für Künstliche Intelligenz • Klein, Arno Methoden zur effizienten Produktion und Verwendung von videomedialen Lernmodulen, 20.02.2006 • Schmidt, Sebastian Produktberatung mittels Informationsextraktion aus dem Internet, 19.10.2007 27 Promotionen am Lehrstuhl für Graphische Datenverarbeitung • Dachsbacher, Carsten Interactive Terrain Rendering: Towards Realism with Procedural Models and Graphics Hardware, 07.03.2006 • Breithecker, Marc Alexander Die Bewertung und Optimierung der visuellen Wahrnehmung in der Fahrsimulation, 28.08.2007 • Reck, Frank Gerd Interaktive Visualisierung für mechatronische Systeme, 19.09.2007 • Merhof, Dorit Rekonstruktion und Visualisierung neuronaler Bahnen aus DiffusionstensorDaten, 08.10.2007 Promotionen am Lehrstuhl für Systemsimulation • Thürey, Nils Physikalische Animation von Strömungen mit freien Oberflächen mit der LatticeBoltzmann-Methode, 13.03.2007 • Härdtlein, Jochen Moderne Expression Templates Programmierung – Weiterentwickelte Techniken und deren Einsatz zur Lösung partieller Differentialgleichungen, 03.08.2007 Promotionen am Lehrstuhl für Software Engineering • Oster, Norbert Automatische Generierung optimaler struktureller Testdaten für objekt-orientierte Software mittels multi-objektiver Metaheuristiken, 29.01.2007 • Jung, Martin Modellbasierte Generierung von Beherrschungsmechanismen für Inkonsistenzen in komponentenbasierten Systemen, 02.02.2007 28 Promotionen am Lehrstuhl für Hardware-Software-Co-Design • Ahmadinia, Ali Optimierungsalgorithmen für dynamisch rekonfigurierbare eingebettete Systeme, 20.03.2006 • Streichert, Thilo Selbstadaptierende Hardware/Software-rekonfigurierbare Netzwerke – Konzepte, Methoden und Implementierung, 07.12.2007 1.13 Besondere Ereignisse 2006/2007 1.13.1 Rufe und Neubesetzungen Neubesetzungen von Professuren: Prof. Dr.-Ing. Richard Lenz, W2-Professur für Informatik am Lehrstuhl für Datenmanagement zum 01.04.2007 1.13.2 Preise und Auszeichnungen • Dipl.-Inf. Dmitrij Kissler, Mitarbeiter am Lehrstuhl für Hardware-Software-CoDesign, gewinnt bei der embedded world Exhibition & Conference in Nürnberg den ersten Preis beim University Award 2007 für seine Diplomarbeit Entwurf ” eines generischen schwachprogrammierbaren Prozessorfeldes“. • Daniel Brinkers, Thomas Fersch und Tobias Preclik belegen den 4. Platz beim South Western European Regional Contest (SWERC) 2007 in Lissabon. • Michael Klemm vom Lehrstuhl für Programmiersysteme gewinnt den PARSNachwuchspreis im Rahmen des 21. PARS-Workshops am 31.05./01.06.07 für seine Arbeit Reparallelisierung und Migration von OpenMP-Applikationen“. ” • MICCAI 2007 Workshop on 3D Segmentation in the Clinic: A Grand Challenge 3. Platz Caudate segmentation: Michael Wels 4. Platz Liver segmentation: Andreas Wimmer • BVM 2007 in München: 2. Platz bei den besten wissenschaftlichen Arbeiten für Florian Jäger für Whole ” Body MRI Intensity Standardization“ 29 2. Platz für das beste Poster von Rüdiger Bock zum Thema Beam Hardening ” Correction with an Iterative Scheme Using an Exact Backward Projector and a Polychromatic Forward Projectior“ 3. Platz für den besten Vortrag von Anja Borsdorf zum Thema Separate CT” Reconstruction for Orientation and Position Adaptive Wavelet Denoising“ • Fritz und Maria Hofmann Diplompreis für die Diplomarbeit Noise Reduction in ” CT Images by Identification of Correlations“ von Anja Borsdorf • Diplom-Preis vom Arbeitskreis Software-Qualität und Fortbildung e.V. für die Diplomarbeit Bewegungskorrektur in der 3D-digitalen Subtraktionsangiographie“ ” von Mario Frank Körner • CiberMouse-Wettbewerb 2007 in Tucson, Arizona 1. Platz für Team FAUbot vom Lehrstuhl für Mustererkennung • Robocup German Open 2007 4. Platz für Team ER-Force vom Lehrstuhl für Mustererkennung • Einladung zum 57. Nobelpreistraegertreffen in Lindau (Johannes Zeintl) • Stefan Meiler ist Preisträger des ASQF Diplompreises, der ihm im Rahmen der Diplomfeier am 3. Februar 2006 überreicht wird. • Bei der Diplomfeier am 7. Juli 2006 ehrt man Andreas Wimmer mit dem Diplompreis des ASQF. • Am 2. Februar 2007 werden bei der Diplomfeier Matthias Bezold und Michael Stilkerich mit dem Diplompreis des ASQF ausgezeichnet. • Der Preis für die beste Diplomvorprüfung, überreicht im Rahmen des Tags der Informatik am 4. Mai 2007, geht an Thomas Schneider. • Sven Kerschbaum erhält am 6. Juli 2007 im Rahmen der Diplomfeier den Diplompreis des ASQF. 1.13.3 Dekane aus der Informatik • Prodekan der Technischen Fakultät: Prof. Dr. Klaus Meyer-Wegener 1.13.4 Zweitmitgliedschaft • an der Medizinischen Fakultät: Prof. Dr.-Ing. Joachim Hornegger 30 1.13.5 Gastaufenthalte • Prof. Joachim Hornegger Visiting Professor Department of Radiology, Stanford University • Andreas Maier Visiting Researcher Speech and Acoustics Processing Laboratory, Nara University • Konrad Sickel Visiting Researcher Siemens Corporate Research, Princeton • Marcus Pruemmer Visiting Researcher Stanford University • Stefan Hoppe Visiting Researcher University of Utha, Salt Lake City • Bjoern Eskofier Visiting Researcher adidas innovation team a.i.t., Portland • Johannes Zeintl Visiting Researcher Siemens Medical Solution USA, Inc., Molecular Imaging, Hoffman Estates • Humboldt Research Fellow University of Szeged 01.05.2006 – 30.04.2007 Lehrstuhl für Mustererkennung 31 • Md. Asifuzzaman, Bangladesch DAAD IAESTE Univ. Monash Clayton, Australien 15.11.2006 – 23.02.2007 Lehrstuhl für Mustererkennung • Prof. Dr. Elli Angelopoulou, USA Stevens Institute of Technology Hoboken, NJ 01.12.2006 – 30.10.2009 Lehrstuhl für Mustererkennung • Wai Shing Lai, Hong Kong DAAD IAESTE The Hong Kong Polytechnic University 18.06.2007 – 10.08.2007 Lehrstuhl für Mustererkennung • Caio de Mello Rossi, Brasilien DAAD IAESTE PUC-Campinas (Pontificia Universidade Catolica de Campinas) 12.08.2007 – 05.10.2007 Lehrstuhl für Mustererkennung • Konstantin Chirkov, Russland Stipendium des russischen Ministeriums Staatliche Universität Wladimir 19.11.2007 – 30.04.2008 Lehrstuhl für Mustererkennung 32 1.13.6 Tagungen/Workshops • Russian-Bavarian Conference on Bio-Medical Engineering 2.–3. Juli 2007, Erlangen http://www.biomed07.uni-erlangen.de Lehrstuhl für Mustererkennung • 26th International Conference on Computer Safety, Reliability and Security (SAFECOMP) 2007 18.–21. September 2007, Nürnberg http://www.safecomp.org Lehrstuhl für Software Engineering • Prof. Dr. Rolf Wanka vom Lehrstuhl für Hardware-Software-Co-Design und Prof. Dr. Ernst W. Mayr von der TU München leiten auf der Sommerakademie der Studienstiftung des Deutschen Volkes in Görlitz die Arbeitsgruppe Wie genau ” ist ungefähr?“ 02.09.2007–15.09.2007, Görlitz 1.13.7 Informatik Kolloquium 2006/2007 • Prof. Dr. Arnd Poetzsch-Heffter, TU Kaiserslautern (23.01.2006) Modular Specification of Encapsulated Object-Oriented Components • Prof. Mari Ostendorf, Ph.D., University of Washington (05.05.2006) New Directions in Robust HMM Training for Speech Recognition • Prof. Dr.-Ing. Ina Schieferdecker, TU Berlin, Fraunhofer FOKUS (12.06.2006) Test the Test? or: How Good are Your Tests? • Dr. Erich Strohmeier, Berkeley, USA (22.06.2006) Application Performance Characterization: Benchmarks, Models, and Metrics • Prof. Dr. Hans-Joachim Bungartz, TU München (22.06.2006) Insight, not numbers! • Prof. Dr. Arndt Bode, TU München (22.06.2006) Vom Bundeshöchstleistungsrechner zum Europäischen Supercomputer 33 • Prof. Dr.-Ing. Franz. J. Hauck, Universität Ulm (26.06.2006) Nebenläufigkeit in aktiv replizierten Systemen • Dipl.-Phys. Christian Haase, Forschungszentrum Jülich (13.07.2006) Dünnfilm Silizium Solarzellen: Von der numerischen Simulation texturierter Oberflächen bis hin zur Modulverschaltung • Prof. Dr. Wolfgang Bibel, TU Darmstadt (13.07.2006) Dartmouth – Folgen und Perspektiven • Prof. Dr.-Ing. Roland Vollmar, Universität Karlsruhe (24.07.2006) Informatikgeschichte: Sollen wir uns heute schon damit befassen? • Prof. Dr. Werner Hartmann, PH Bern (12.10.2006) Informatikunterricht zwischen Theorie und Alltag • Dr. Klaus Engel, Siemens Corporate Research, Princeton, USA (01.01.2007) Fortgeschrittene GPU-basierte Visualisierungstechniken in der Medizin • Andreas Gal, Ph.D., University of California, Irvine, USA (15.01.2007) Efficient Byte code Verification and Compilation in a Virtual Machine • Prof. Dr. Constantin Popa, Ovidius University Constanta, Romania (29.01.2007) A Hybrid Kaczmarz – CG Algorithm for Inconsistent Systems arising in Image Reconstruction from Projections in Computerized Tomography • Dr. Roman Obermaisser, TU Wien (16.07.2007) Combining the Benefits of Federated and Integrated Systems in a Time-Triggered Integrated Architecture • Prof. Dr. Christoph Schlieder, Universität Bamberg (22.10.2007) Künstlicher Stein und Künstliche Intelligenz • Prof. Dr. Bernhard Seeger, Universität Marburg, Realtime Monitoring GmbH (26.11.2007) Datenstrommanagementsysteme: Warum und wie? • Dr.-Ing. Henrike Berthold, TU Dresden (03.12.2007) Näherungswert-basierte Datenanalyse • Eric Eide, University of Utah, USA (17.12.2007) Using Static Analyses to Improve Embedded Software 34 1.14 Tag der Informatik 1.14.1 Tag der Informatik 2006 Der Tag der Informatik 2006 fand am Freitag, 28. April 2006 statt: • Dr. Karl-Heinz Strassemeyer, IBM Böblingen Development Lab IT-Technologie – gestern, heute und morgen. Ohne Herkunft keine Zukunft?“ ” • Prof. Dr. Torsten Brinda, Department Informatik Objektorientiertes Modellieren im Informatikunterricht – Theorie und Praxis“ ” 1.14.2 Tag der Informatik 2007 Der Tag der Informatik 2007 fand am Freitag, 04. Mai 2007 statt: • Renate Schmid, MdB Systemanalytische Reminiszenzen“ ” • Prof Dr. Marc Stamminger, Department Informatik Informatiker – Spezialisten oder Generalisten?“ ” • Prof. Joseph Weizenbaum Rebel at Work“ ” Ein Film von Peter Haas und Silvia Holzinger (Il Mare Film), anschließend Diskussion mit Prof. Joseph Weizenbaum 35 2 Geschäftsstelle des Department Informatik Anschrift: Martensstraße 3, 91058 Erlangen Tel.: +49.9131.28807 Fax: +49.9131.85.28781 E-Mail: [email protected] Leitung: Dr. Christian Brosch Sekretariat: Ingeborg Rentsch, M. A. Nichtwiss. Personal: Helga Janak-Taubald 2.1 Aufgabenschwerpunkte • Haushaltsplanung und Controlling, Stellenbewirtschaftung • Liegenschaftsverwaltung und Brandschutzaufgaben • Vorbereitung von Gremiensitzungen • Prozessverfolgung für alle Verwaltungsvorgänge, die sich aus Gremienbeschlüssen ergeben • Koordinierung der Zusammenarbeit zwischen Lehrstühlen, Fakultätsverwaltung und zentraler Universitätsverwaltung • Koordinierung von PR-Aktivitäten des Departments • Koordinierung und Pflege der zentralen Webseiten und des IntranetInformationssystems des Departments • Erarbeitung von Druckerzeugnissen und Berichten • Aktivitäten im Bereich der Studienberatung • Koordination des Betriebs der zentralen Rechensysteme und der Netzinfrastruktur • Koordination von Beschaffungsanträgen des Departments 36 3 Studien-Service-Center Informatik Anschrift: Martensstr. 3, 91058 Erlangen Tel.: +49 9131 85-27007 Fax: +49 9131 85-28781 E-Mail: [email protected] Leitung: Christian Götz Die Stelle des Leiters des Studien-Service-Centers Informatik wird aus Studienbeiträgen finanziert. 3.1 Aufgabenschwerpunkte • Beratung Studierender und Studieninteressierter • Anlaufstelle für Studierende bezüglich eines Auslandsstudiums; Kontakt zu ausländischen Universitäten • Informations- und Kommunikationsdrehscheibe zwischen Studierenden und Dozenten • Pflege des Informationsmaterials, beispielsweise Flyer und Studienführer • Mitwirkung bei der Öffentlichkeitsarbeit und Organisation von Informationsveranstaltungen für Studierende und Studieninteressierte • Ausbau der Jobbörse • Sammlung von Vorschlägen zur weiteren Verbesserung der Studienbedingungen 37 4 Lehrstuhl für Informatik 1 (Theoretische Informatik) Anschrift: Martensstr. 3, 91058 Erlangen Tel.: +49.9131.85.27925 Fax: +49.9131.85.28781 Leitung: Prof. Dr. phil. Klaus Leeb 1972 übernahm Herr Prof. Dr. phil. Klaus Leeb die Leitung des Lehrstuhls für Informatik 1 (Theoretische Informatik) – zugehörig dem Department Informatik der Friedrich-Alexander-Universität 4.1 Forschungsschwerpunkte Syntax der Kategorien; rekursive, mengentheoretische und enumerative Kombinatorik; Halbgruppen und Formale Sprachen; Logische Programmierung; Komplexität und Endliche Modelltheorie; Codierung und Kryptosysteme; Dynamik und Algebren und Funktionsgleichungen; Rel-Pol-Dualität, insbes. Reduktionsordnungen für Polynom-, Differential- und Differenzalgebra, Clones 38 5 Lehrstuhl für Informatik 2 (Programmiersysteme) Anschrift: Martensstr. 3, 91058 Erlangen Tel.: +49 9131 85 27621 Fax: +49 9131 85 28809 E-Mail: [email protected] Leitung: Prof. Dr. Michael Philippsen Honorarprofessoren: Hon.-Prof. Dr.-Ing. Bernd Hindel Hon.-Prof. Dr.-Ing. Detlef Kips Emeritus: Prof. em. Dr. Hans Jürgen Schneider Sekretariat: Agnes Brütting Waltraud Rück Wiss. Mitarbeiter: Dipl.-Inf. Alexander Dreweke, B. Sc. mult., ab 01.04.2006 Dr.-Ing. Ingrid Fischer, bis 31.03.2006 Christian Götz, ab 08.01.2007 Dipl.-Inf. Philipp Janda, ab 15.06.2007 Ulrich Kiesmüller, ab 01.08.2006 Dipl.-Inf. Michael Klemm PD Dr.-Ing. Gabriella Kókai Dipl.-Inf. Thorsten Meinl, bis 28.02.2006 Dipl.-Inf. Dominic Schell Kirsten Schlüter, ab 20.02.2006 Ronald Veldema, Ph.D. Dipl.-Inf. Tobias Werth, ab 01.03.2007 Bernard Wiesner, ab 20.03.2006 PD Dr.-Ing. habil. Peter Wilke Dipl.-Inf. Marc Wörlein, ab 01.05.2006 Gäste/Stipendiaten: Dipl.-Inf. Johannes Drexler, ab 01.11.2007 Dipl.-Ing.(FH) Thorsten Edelhäußer Franz Forman Dr.-Ing. Bernd Hardung, bis 03.11.2006 Dr.-Ing. Martin Jung, vom 01.03.2006 – 02.02.2007 Dr. Klaus Kreisel 39 Dipl.-Inf. Szilvia Zvada Externes Lehrpersonal: Samir Al-Hilank Dr.-Ing. Klaudia Dussa-Zieger Dr. Georg Heidenreich Dr. Ralph Kummetz Dr.-Ing. Jörg Nilson Dr. Karsten Schmidt Techniker/Administratoren: Helmut Allendorf Manfred Uebler Im Jahr 2006 hat der Lehrstuhl Informatik 2 (Programmiersysteme) ein weiteres thematisches Standbein hinzugewonnen. Zu dem Stammwissenschaftlerteam, das sich mit Programmiersystemen beschäftigt, und der Didaktik der Informatik, die in einem eigenen Abschnitt gesondert dargestellt ist, gehört nun die von zwei Honorar-Professoren geführte Arbeitsgruppe Praktisches Software Engineering zum Portfolio des Lehrstuhls. 5.1 Forschungsschwerpunkte Im Mittelpunkt der Programmiersystemforschung des Lehrstuhls stehen parallele und verteilte Systeme und deren Programmierung sowie Programmiersysteme für eingebettete und mobile Systeme. Software (und deren Erstellung) für solche Systeme sollte nicht komplexer, aber genauso portabel, wartbar und robust sein, wie heute für Einprozessorsysteme und Arbeitsplatzrechner. Langfristiges Ziel ist es, den Anwendungen die verfügbare Rechen- und Kommunikationsleistung möglichst ungebremst zur Verfügung zu stellen bzw. aus sehr begrenzten Systemen ein Maximum an Möglichkeiten herauszuholen. Im Bereich der eingebetteten Systeme wurde im Jahr 2006 vor allem an der Minimierung des Speicherbedarfs durch clevere Optimierungen bei der Übersetzung gearbeitet. Im Bereich des Cluster-Computings arbeiten wir weiterhin daran, die Programmierbarkeit solcher Systeme zu verbessern. Dabei beschäftigten wir uns nicht nur mit einzelnen, homogenen Rechnerbündeln sondern auch mit aus heterogenen Einheiten zusammengesetzten Grids. Unter der Regie der Honorar-Professoren Dr. Bernd Hindel und Dr. Detlef Kips, die als Geschäftsführer zweier mittelständischer Software-Beratungsunternehmen über langjährige Praxiserfahrung in industriellen Software-Entwicklungsprojekten verfügen, beschäftigt sich die neue Arbeitsgruppe Praktisches Software Engineering mit wissenschaftlich fundierten Methoden zur standardisierten ingenieurmäßigen Erstellung komplexer Softwaresysteme auf Grundlage wohldefinierter Prozesse. Im Vordergrund 40 stehen dabei insbesondere die systematische Beschreibung, Modellierung und Bewertung von Software-Entwicklungsprozessen sowie deren werkzeuggestützte Anwendung in realistischen Entwicklungsprojekten. Die Forschungsaktivitäten der Arbeitsgruppe konzentrieren sich darauf, geeignete Metamodelle, Notationen und Bewertungsmethoden für realistische Entwicklungsprozesse zu untersuchen und deren Praktikabilität im konkreten Projekteinsatz auf den Prüfstand zu stellen. 5.2 5.2.1 Forschungsprojekte Reparallelisierung und Migration von OpenMP-Applikationen Projektleitung: Prof. Dr. Michael Philippsen Beteiligte: Dipl.-Inf. Michael Klemm Laufzeit: 1.1.2006–31.12.2008 Kontakt: Dipl.-Inf. Michael Klemm Tel.: +49 9131 85-28995 Fax: +49 9131 85-28809 E-Mail: [email protected] Obwohl Grid Computing neue Möglichkeiten zum wissenschaftlichen Rechnen bereitstellt, bleiben die Grenzen zwischen den teilnehmenden Rechnerbündeln stets sichtbar. Neben dem Problem der Heterogenität der Systeme wird ein Benutzer zusätzlich mit dem Scheduler des Rechnerbündels konfrontiert. Der Scheduler zeichnet dafür verantwortlich, dass Rechenressourcen einer Applikation zugewiesen werden. Im Regelfall bevorzugt ein Scheduler kurzlaufende Applikationen gegenüber Langläufern. Weiterhin werden Applikationen mit wenig CPU-Bedarf gegenüber solchen mit hoher Anzahl von CPUs bevorzugt behandelt. Kurze Jobs mit wenig CPUs erhöhen in der Regel die Auslastung des Rechnerbündels, während Langläufer mit viel CPU-Bedarf unproduktive Reservierungslöcher verursachen. Aus Fairnessgründen gegenüber wartenden Benutzern werden Applikation bei Überschreitung der reservierten Zeit terminiert. Dies führt zum Verlust der bisherigen Rechenarbeit. Die geforderte Laufzeitschätzung ist jedoch nicht trivial machbar. Die Laufzeit einer Applikation hängt in hohem Maße von Eingabedaten sowie von der Rechenumgebung ab (bspw. von der Last auf dem Netzwerk, die wiederum von der Gesamtlast auf dem Rechnerbündel abhängt). Dem Benutzer bieten sich zwei ”Optionen” an. Einerseits kann eine übermäßig lange Reservierungsdauer gewählt werden, was mit einer längeren Wartezeit in der Warteschlage erkauft wird. Üblicherweise wird die geschätzte Laufzeit 41 verdoppelt, um einer vorzeitigen Terminierung vorzubeugen. Andererseits kann eine Applikation in kleinere, unabhängige Phasen zerlegt werden. Die Hoffnung ist, dass diese kleineren Phasen in besser vorhersagbaren Zeitschranken ablaufen können. Reparallelisierung und Migration stellen nicht nur eine weitere Lösung dar, sie sind vielmehr in der Lage, Grenzen zwischen Rechnerbündeln zu verbergen. Ein Benutzer kann damit eine Applikation auf einem beliebigen Rechnerbündel des Grids mit einer beliebigen CPU-Zahl und Laufzeit starten. Sollte die Applikation Gefahr laufen, die reservierte Zeit zu überschreiten, oder wenn ein besseres Rechnerbündel frei wird, kann die Applikation ihren derzeitigen Zustand sichern und zum anderen Rechnerbündel migrieren. Hierbei kann sie sich völlig transparent an die neue Architektur anpassen und einen geeigneten Parallelitätsgrad wählen. Das Jahr 2006 wurde genutzt, um die wesentlichen Teilfunktionalitäten dieses Reparallelisierungs- und Migrationssystems zu implementieren und dessen Leistungsfähigkeit zu beurteilen: • Die Forschungsgruppe hat eine prototypische Spezifikation für OpenMP für Java erarbeitet und im eigenen Java-Übersetzer implementiert. Übersetzerdirektiven erlauben es einem Java-Programmierer, die Parallelisierung einer Applikation durch den Übersetzer halbautomatisch durchführen zu lassen. Der Programmierer gibt hierbei diejenigen Stellen vor, die parallelisiert werden sollen. Der Übersetzer erzeugt daraufhin Code. • Das bereits im Jahr 2005 entwickelte Sicherungsverfahren für im Rechnerbündel verteilte Applikation wurde dahingehend erweitert, dass plattformunabhängige Sicherungspunkte erstellt werden können. Somit können nicht nur Ausfälle eines Rechnerbündels abgefangen werden, sondern vielmehr auch Applikationen zwischen Rechnerbündeln unterschiedlichster Architektur migriert werden. • Unter Zuhilfenahme von OpenMP für Java wird es dem Lehrstuhl-eigenen JavaSystem möglich, den Parallelitätsgrad einer Applikation zur Laufzeit anzupassen. Im Zusammenspiel mit der Migrationstechnik wird es so möglich, flexibel auf Ressourcenänderungen in Rechnerbündeln eines Computational Grids zu reagieren und die Applikation automatisch auf die neuen Gegebenheiten anzupassen. Im Jahr 2007 wurde dann verstärkt daran gearbeitet, die verschiedenen Teilfunktionen zu einem Gesamtsystem zu verbinden. Hierzu wurde begonnen, ein Java-basiertes Framework zu entwickeln, das Migrationen in einem P2P-Netzwerk unterstützt. Dieses Framework besteht aus den folgenden Teilkomponenten: • Ein Modul zur Bereitstellung eines P2P-Netzwerkes basierend auf der SmartSockets-Bibliothek des IBIS-Projekts der VU Amsterdam. SmartSockets 42 ist eine Kommunikationsbibliothek, welche die Kommunikation über Rechnerbündel-Grenzen unterstützt und dabei Hindernisse wie Firewalls und private Netzbereiche überwindet. • Verschiedene Abfragemodule für die Abfrage der Ablaufpläne der Scheduler von Rechnerbündeln. Da jedes Rechnerbündel einen Scheduler besitzt, muss dieser in regelmäßigen Abständen abgefragt und die momentane Last auf dem System ermittelt werden. Die Informationen über die Belastung der Rechnerbündel wird an zentraler Stelle für die Auswertung gesammelt. • Zentraler Auktionator zur Entscheidung über Migrationen. Der Auktionator ist die zentrale Anlaufstelle für die ermittelten Lastinformationen der verschiedenen Rechnerbündel. Sobald von einem Rechnerbündel Informationen eintreffen, ermittelt der Auktionator dasjenige Rechnerbündel, das für die weitere Ausführung am besten geeignet scheint. Der Auktionator unterstützt unterschiedliche Heuristiken zur Auswahl; momentan implementiert ist eine gierige Heuristik, welche versucht, die Rechenzeit für die Applikation zu maximieren. • Applikationsintegrations- und Datentransfermodul. Diese beiden Module stellen die Schnittstelle zur Applikation dar. Das Applikationsintegrationsmodul stellt die Funktionalität des Frameworks in der Applikation zur Verfügung, ohne dabei das gesamte Migrationsframework in die Applikation integrieren zu müssen. Hierzu kommuniziert es über die Java-Netzwerk-API mit dem Framework. Das Datentransfermodul ist für die Übertragung des gesicherten Applikationszustands verantwortlich. Sobald die Applikation ihren Zustand gesichert hat, nimmt es die Daten entgegen und versendet diese an das Zielsystem, das vom Auktionator bestimmt wurde. Im Rahmen des 21. PARS-Workshops der GI/ITG-Fachgruppe ”Parallel-Algorithmen, -Rechnerstrukturen und -Systemsoftware” vom 31.05.2007 bis 01.06.2007 in Hamburg wurde die Arbeit an diesem Projekt mit dem PARS-Nachwuchspreis ausgezeichnet. 5.2.2 Tapir Projektleitung: Prof. Dr. Michael Philippsen Beteiligte: Ronald Veldema, Ph.D. Dipl.-Inf. Michael Klemm Laufzeit: 1.1.2006–31.12.2010 Kontakt: 43 Ronald Veldema, Ph.D. Tel.: +49 9131 85-27622 Fax: +49 9131 85-28809 E-Mail: [email protected] Tapir ist eine neue (Programmier-)Sprache zur einfacheren Systemprogrammierung. Unter Systemprogrammierung versteht man die Programmierung von Netzwerkprotokoll-Software, Betriebssystemen, Middleware, DSM-Systemen usw. Solche Programme sind für das Funktionieren eines Systems essentiell, da sie Systemdienstleistungen bereitstellen, die von Applikationen benutzt werden können. Der Betriebssystemkern stellt einer Applikation z. B. eine Ausführungsumgebung bereit und abstrahiert hierbei von der konkreten Hardware, sodass die Applikation eine rechnerunabhängige Schnittstelle nutzen kann. Ein DSM-System simuliert in einem Rechnerbündel mit verteiltem Speicher einen gemeinsamen Adressraum, damit eine Applikation den gesamten Speicher des Rechnerbündels ohne explizite Kommunikation nutzen kann. Im Vergleich mit Anwendungssoftware stellt diese Art von Software völlig andere Anforderungen an eine Programmiersprache. Auch unterscheidet sich der angewendete Programmierstil häufig deutlich von Applikationssoftware. Der erzeugte Code muss besonders leistungsfähig sein, da die Leistungsfähigkeit des Systems stark von der Systemsoftware abhängt. Ebenso wirken sich Fehler auf dieser Ebene besonders auf die Zuverlässigkeit der darauf aufbauenden Applikationen aus. Systemsoftware sollte daher (beweisbar) fehlerfrei sein. Diese Anforderungen haben direkte Auswirkungen auf die verwendbaren Programmiersprachen: • Hochsprachen wie C++, C# und Java verstecken Implementierungsdetails vor dem Programmierer. Der Programmierer benötigt z. B. kein Wissen darüber, wie ein Methodenaufruf konkret durchgeführt wird. Dieses Wissen ist jedoch bei der Entwicklung von Systemsoftware erforderlich. • Hochsprachen stellen weiterhin Funktionen bereit, die für Systemsoftware in der Regel nicht benötigt werden oder sogar unerwünscht sind. Beispielsweise wird innerhalb eines Betriebssystems explizit keine automatische Speicherbereinigung oder Ausnahmebehandlung verwendet. • Systemprogramme erfordern kein so hohes Abstraktionsniveau, wie es meist von Hochsprachen gefordert wird. Ebenso verzichtet man bei der Erstellung von Systemsoftware zumeist auf die Benutzung externer Bibliotheken. 44 Im Berichtszeitraum 2006/2007 wurde an den grundlegenden Spracheigenschaften von Tapir gearbeitet. Obwohl Tapir an existierende Hochsprachen wie C++ und Java angelehnt ist, wurden alle unnötigen Eigenschaften und Funktionen entfernt. Beispielsweise fehlen Tapir Speicherbereinigung, Ausnahmebehandlung und Typwandlungen; Klassen und Objekte können zwar definiert werden, jedoch ist keine Vererbungsbeziehung zwischen Klassen erlaubt. Das mit Tapir spezifizierte Systemprogramm kann mit Model Checking-Techniken bereits während der Entwicklung auf Fehler überprüft werden. Ein prototypischer Übersetzer und ein Verifikationswerkzeug sind implementiert. Parallel zur Entwicklung der Sprache und der zugehörigen Werkzeuge wird Tapir bereits verwendet, um eine Spezifikation für das DSM-Protokoll von Jackal zu erarbeiten und weitere Arten von DSM-Protokollen zu evaluieren. Ein RDMA-basiertes DSMProtokoll wurde entwickelt, um es in den Tapir-Sprachentwurf einfließen zu lassen. Die semantische Analyse von Tapir-Programmen ist sehr speicherintensiv, da sie auf Modelchecking beruht. Deshalb war es erforderlich, eine eigene virtuelle Maschine für Java zu konstruieren, die speziell für sehr große Objektmengen ausgelegt ist. Diese neue, LVM genannte virtuelle Maschine zeigt wesentlich bessere Laufzeiteigenschaften als übliche Java-Implementierungen, sobald der verfügbare Hauptspeicher nicht mehr ausreicht und das Auslagern auf den Hintergrundspeicher beginnt. 5.2.3 JavaParty Projektleitung: Prof. Dr. Michael Philippsen Beteiligte: Dipl.-Inf. Marc Wörlein Beginn: 1.4.2007 Kontakt: Prof. Dr. Michael Philippsen Tel.: +49 9131 85-27625 Fax: +49 9131 85-28809 E-Mail: [email protected] JavaParty1 erlaubt eine einfache Portierung von parallelen Java-Programmen mit mehreren Threads auf eine verteilte Umgebung wie Cluster. Das Standard-Java unterstützt parallele Programme durch Threads und Synchronisationsmechanismen. Während Mehrprozess-Java-Programme auf einen einzelnen Speicheradressbereich beschränkt sind, dehnt JavaParty die Möglichkeiten von Java auf verteilte Systeme aus. Die normale Art parallele Anwendungen auf eine verteilte Umgebung zu portieren ist 1 URL: http://svn.ipd.uni-karlsruhe.de/trac/javaparty/wiki/JavaParty 45 die Verwendung von Kommunikationsbibliotheken. Java’s entfernter Methodenaufruf (RMI) macht die Verwendung expliziter Kommunikationsprotokolle unnötig, aber führt immer noch zu einer erhöhten Programmkomplexität. Der Grund dafür liegt bei den beschränkten Möglichkeiten des RMIs und der benötigten zusätzlichen Funktionalität zu der Erzeugung und dem Zugriff auf entfernte Objekte. Der Ansatz von JavaParty ist anders. JavaParty-Klassen können direkt als entfernt (remote) deklariert werden. Während normale Java-Klassen auf eine einzelne Virtuelle Maschine von Java beschränkt, sind entfernte Klassen und deren Instanzen in der gesamten verteilten JavaParty-Umgebung sichtbar und erreichbar. Soweit man nur entfernte Klassen betrachtet, kann die JavaParty-Umgebung als eine Virtuelle Maschine angesehen werden, die sich über verschiedene Computer verteilt. Der Zugriff und die Erzeugung von entfernten Klassen ist syntaktisch nicht von dem regulärer Java-Klassen zu unterscheiden. Im Berichtszeitraum wurde eine neue Version des JavaParty-Übersetzers implementiert, die mit den in Java 1.5/1.6 neu eingeführten Kontrollstrukturen zurecht kommt. Diese Implementierung beruht auf dem öffentlichen und frei verfügbaren Eclipse-Übersetzer. Dadurch können zukünftige Weiterentwicklungen der Sprache Java und zugehörige Anpassungen des Übersetzers direkt in JavaParty einfließen. 5.2.4 ParSeMiS – die Parallele und Sequenzielle Mining Suite Projektleitung: Prof. Dr. Michael Philippsen Beteiligte: Dipl.-Inf. Marc Wörlein Dipl.-Inf. Alexander Dreweke, B. Sc. mult. Dipl.-Inf. Tobias Werth Beginn: 1.5.2006 Kontakt: Prof. Dr. Michael Philippsen Tel.: +49 9131 85-27625 Fax: +49 9131 85-28809 E-Mail: [email protected] Die Arbeitsgruppe ParSeMiS (Parallele und Sequenzielle Graph Mining Suite) beschäftigt sich mit der Suche nach häufigen interessanten Strukturen in Graphdatenbanken; ein Forschungsgebiet, das in den letzten Jahren sehr reges Interesse geweckt hat. Da viele Forschungs- und Wirtschaftsdaten in strukturierter Form erfasst 46 werden können, bietet sich die Speicherung komplexer Zusammenhänge in Form von allgemeinen oder speziellen Graphen an. Diese meist unüberschaubaren Datenmengen sind nur schwer mit Hand und Auge zu erfassen, sodass Algorithmen zur Entdeckung interessanter Korrelationen unabdingbar sind. Da deren Entdeckung in Graphen im Allgemeinen aufwändig ist (NP-vollständig), ist die Suche nach parallelen und spezialisierten Algorithmen und Heuristiken notwendig, die den benötigten Rechenzeit- und Speicheranforderungen auch bei immer größer werdenden Datenmengen gewachsen sind. Das Ziel dieses Projektes ist es, ein effizientes und flexibles Werkzeug zur Suche in beliebigen Graphdaten bereitzustellen, um sowohl die Einbindung in neue Anwendungsgebiete als auch die Entwicklung neuer Suchverfahren zu beschleunigen und zu vereinfachen. Aufbauend auf den Ergebnissen des Projekts ParMol2 wurden 2006/2007 folgende Ziele erreicht: • Restrukturierung und Neudesign der gewachsenen ParMol-Strukturen zu einer flexiblen Graphbibiliothek. • Ergänzung des objekt-orientierten Graphdesigns zu kompakteren, zur Parallelisierung besser geeigneten Datenstrukturen. • Überführung und Zerlegung der Algorithmen gSpan und Gaston in die neuen Strukturen und Einbau von Erweiterungen für das aktuelle Anwendungsgebiet ”Prozedurale Abstraktion”. • Entwurf und Implementierung eines neuen Algorithmus zur Suche in gerichteten azyklischen Graphen (DAGs) als Spezialisierung für die Prozedurale Abstraktion. • Implementierung einer angepassten grafischen Anzeige für DAGs. 5.2.5 Übersetzerunterstützte Parallelisierung für Mehrkern-Architekturen Projektleitung: Prof. Dr. Michael Philippsen Beteiligte: Dipl.-Inf. Tobias Werth Beginn: 1.3.2007 Kontakt: 2 URL: http://www2.informatik.uni-erlangen.de/Forschung/Projekte/ParMol/ 47 Dipl.-Inf. Tobias Werth Tel.: +49 9131 85-28865 Fax: +49 9131 85-28809 E-Mail: [email protected] Die Entwicklung von schnelleren und immer effizienteren Rechnerarchitekturen ist in den letzten Jahren an verschiedene Grenzen gestoßen. Althergebrachte Techniken trugen nicht mehr oder nur noch wenig zur Beschleunigung der Hardware bei. Grundprobleme sind dabei das auseinanderdriftende Verhältnis der Latenzen von Speicher und CPU und die Abwärme bei steigenden Taktfrequenzen. Als Lösung drängen sich homogene und heterogene Mehrkern-Architekturen auf, die dem Programmierer enorme Leistung zur Verfügung stellen. Durch verringerte Taktfrequenzen tritt ein Großteil der genannten Problematik nicht auf, die hohe Leistung wird durch Vervielfältigung der Ressourcen erreicht. Somit sind zum Beispiel bei niedrigerem Energieverbrauch mehr Rechenoperationen pro Zeiteinheit möglich. Unter Umständen wird mittels Spezialisierung einzelner Komponenten die Rechenleistung weiter erhöht. Durch eine mehrschichtige Speicherhierarchie mit vielen Zwischenspeichern soll zum Beispiel das Problem der Latenz verkleinert werden. Aus Mehrkern-Architekturen die volle Leistung abzurufen stellt sich als große Schwierigkeit für den Programmierer heraus. Die hohe Rechenkapazität kann er nur dann erreichen, wenn er Expertenwissen sowohl in der Domäne der Anwendung, als auch für die konkrete Architektur besitzt. Gegenstand der Forschung sind dabei unter anderem die folgenden Fragestellungen: Welche Unterstützung kann der Übersetzer dem Programmierer beim Entwickeln von Anwendungen für verschiedene Mehrkern-Architekturen bieten? Wie viel Kontextwissen ist notwendig, damit der Übersetzer sinnvolle Entscheidungen bei der Parallelisierung auf die einzelnen Kerne trifft? Welchen Anteil der zur Verfügung stehenden Rechenkapazität kann der Programmierer mit vertretbarem Aufwand erreichen, ohne Detailwissen über die Eigenheiten der einzelnen Architekturen besitzen zu müssen? Wie müssen geeignete Werkzeuge zum Auffinden von Fehlern und Flaschenhälsen in der Anwendung auf Mehrkern-Architekturen aussehen? Ziel dieses neuen Projektes ist es, diese Fragen anhand einer eingeschränkten Anwendungsdomäne zu beantworten und mögliche Lösungswege aufzuzeigen. Als Domäne wird das Lattice-Boltzmann-Verfahren herangezogen, das vor allem in der Strömungssimulation angewendet wird. Durch seine Gitterstruktur und eine überschaubare Anzahl an Datenabhängigkeiten zwischen den einzelnen Zellen lässt sich das Verfahren relativ einfach parallelisieren, sodass sich die Forschung auf die oben genannten Fragestellungen konzentrieren kann. 48 5.2.6 PARES – Optimierung für eingebettete Systeme Projektleitung: Prof. Dr. Michael Philippsen Beteiligte: Dipl.-Inf. Dominic Schell Dipl.-Inf. Alexander Dreweke, B. Sc. mult. Dipl.-Inf. Marc Wörlein Dipl.-Inf. Tobias Werth Beginn: 1.2.2003 Kontakt: Prof. Dr. Michael Philippsen Tel.: +49 9131 85-27625 Fax: +49 9131 85-28809 E-Mail: [email protected] Als besonders dringend erscheint uns gegenwärtig die Verbesserung der Programmierwerkzeuge für eingebettete Systeme. Solche Systeme werden heutzutage zu oft noch sehr maschinennah programmiert. Das inzwischen bei der Programmierung von Arbeitsplatzrechnern übliche Abstraktions- und Komfortniveau (Objektorientierung, automatische Speicherbereinigung, Ausnahmebehandlung, Parallelität, Aspektorientierung, Komponenten, …) scheint im Bereich der eingebetteten Systeme noch in weiter Ferne, wodurch Portabilität, Robustheit und Wartbarkeit der erstellten Software erheblich beeinträchtigt wird. Dies ist ein erhebliches volkswirtschaftliches Problem, das gerade auch deshalb bedeutsam ist, weil Europa auf diesem Feld nicht von Amerika dominiert wird. Fernziel muss es daher sein, das Abstraktionsniveau bei der Programmierung eingebetteter Systeme schrittweise zu erhöhen, indem Optimierungstechniken entwickelt werden, die trotz des erhöhten Abstraktionsniveaus ”kleinen” Code garantieren. Neben der offensichtlichen Frage, wie die bekannten Optimierungstechniken auf die Code-Größe wirken, drängen sich neue Einzelfragen auf. Während der RAM-Bedarf einer Applikation auf Desktop-Rechnern kaum eine Rolle spielt, ist dieser für eingebettete Systeme oft essentiell. Objektorientierter – vor allem bibliotheksbasierter – Code bietet ein erhebliches, bislang ungenutztes Potential für prozedurale Abstraktion zur Code-Verkleinerung. Auf Architekturen ohne MMU muss neu über das Laden von Code nachgedacht werden. Programmpfadanalysen zur Separierung wichtiger und unwichtiger Grundblocksequenzen werden eine wachsende Bedeutung erlangen. Neben der Code-Größe kommt auch dem Aspekt der Energie-Effizienz eine wachsende Bedeutung als Zielgröße der Code-Optimierung zu. Hier muss der Übersetzer, ggf. im Zusammenspiel mit dem Betriebssystem, optimieren bzw. auf die Hardware-Parameter einwir49 ken. Die Behandlung der nicht-uniformen Speicherzugriffshierarchie, die in verteilten Systemen neben Registern, Cache und Hauptspeicher um eine weitere Leistungsebene vertieft ist, stellt auch bei eingebetteten Systemen eine Herausforderung dar, da z. B. Flash-Speicher zu berücksichtigen sind. Können eingebettete Systeme (ebenso verteilte Systeme) – der Tradition von Desktop-Prozessoren folgend – auch weiterhin mit der Illusion eines transparenten Zugriffs programmiert werden? Kann man durch statische Analyse Informationen über bestehende Lokalitätsbeziehungen zwischen Daten extrahieren? Welche Optimierungen sind dann möglich? Profitieren statische Analyse und Laufzeitmechanismen von einander? Wie können durch Programmanalyse Pre-Fetchund Post-Store-Kommandos im generierten Code erzeugt werden, durch die CacheEffekte überdeckt, Wartezeiten vermieden oder Energie gespart werden? Die Forschungsarbeiten lagen 2006/2007 schwerpunktmäßig bei den folgenden beiden Teilgebieten: Dynamisches Laden von Code: Wie bereits erwähnt, steht auf eingebetteten Systemen nur wenig RAM zur Verfügung. Es muss allerdings genug RAM verfügbar sein, um sowohl die Programmdaten als auch den Code zu halten. Die gegenwärtig verfolgte Idee beruht darauf, dass nicht der gesamte Programmcode einer Anwendung komplett im Arbeitsspeicher liegen muss, um das Programm auszuführen. Das Laden des benötigten Codes wird normalerweise vom Betriebssystem übernommen, welches mittels virtuellem Speicher den Programmcode seitenbasiert in den Speicher lädt bzw. wieder verdrängt. Die Seitengröße liegt dabei meist im Bereich mehrerer Kilobytes und die Seiten enthalten mehr als nur den minimal benötigten Code. Eingebettete Systeme besitzen oft keine Einheit zur Verwaltung von virtuellem Speicher (MMU) oder sie müssen ganz ohne ein Betriebssystem auskommen. Die am Lehrstuhl entwickelte automatische Speicherverwaltung für Programmcode lädt den Code nicht seitenweise in den Speicher, sondern es werden nur Code-Fragmente (Basisblöcke) geladen, die garantiert vollständig zur Ausführung kommen. Wenn es zu einem Speicherengpass kommt, wird nicht mehr benötigter Code automatisch erkannt und aus dem Speicher entfernt. Die Untersuchung der dazu notwendigen Speicherbereinigungsverfahren für Code sind bereits abgeschlossen. Im Jahr 2007 wurde der ursprünglich für die Intel IA-32-Architektur implementierte Prototyp auf die ARM-Architektur portiert. Zum einen soll das Konzept damit auf einer weiteren Architektur für eingebettete Systeme untersucht werden, zum anderen wollten wir die Forschung auf einen besonderen Aspekt dieser Architekturen ausbreiten, nämlich den so genannten Scratch-Pad-Memory (SPM) – schneller, im Prozessor integrierter Speicher. Da keine aufwändige Cache-Steuerlogik notwendig ist, können durch den SPM kleinere Chips mit geringerem Energiebedarf realisiert werden. Allerdings muss die auszuführende Anwendung den SPM selbst mit Daten, bzw. in unserem Fall mit Programmcode, gefüllt werden, was jedoch ideal zu unserem Konzept 50 passt. Es ist zu vermuten, dass unser dynamischer Ansatz den bisherigen statischen Ansätzen überlegen ist, denn obwohl wir den SPM noch nicht einsetzen, beträgt der Laufzeitbedarf für Benchmark-Programme schon jetzt nur ca. 1 % mehr als bei nativer Ausführung, wobei sogar ca. 80 % an Speicherbedarf gespart werden kann. Graphbasierte prozedurale Abstraktion: Eine gängige Methode zur Code-Größenverkleinerung ist die prozedurale Abstraktion (PA): gleiche Code-Abschnitte im Programm werden gesucht und daraus eine einzige neue Prozedur erzeugt. Die Code-Abschnitte werden durch Aufrufe der neu erzeugten Prozedur ersetzt, wodurch die Redundanz innerhalb eines Programms und somit seine Größe reduziert wird. Redundanz entsteht durch die Art und Weise, wie Übersetzer Code generieren (z. B. durch Schablonen). Die bisherigen PA-Ansätze betrachten das Programm als Folge von Instruktionen und suchen nach exakt gleichen Teilfolgen. Sind allerdings Instruktionen innerhalb einer Teilfolge vertauscht, wird sie nicht als weitere Instanz der gesuchten Folge erkannt. Somit fallen potentielle Code-Fragmente für die PA aus der Analyse heraus und das Ergebnis wird suboptimal. Der am Lehrstuhl untersuchte Ansatz löst dieses Problem indem die Instruktionen eines Grundblocks statt in einer Folge in einen Datenflussgraphen (DFG) umgesetzt werden. Ein Graph-MiningWerkzeug sucht in den DFGs nach gemeinsamen Fragmenten in ARM Assembler-Code, der auf eingebetteten Systemen weit verbreitet ist. In Kooperation mit dem Projekt ParSeMiS, das sich mit der Optimierung von Graph-Minern befasst, werden auch die für PA spezifischen Probleme beim Graph-Mining angegangen. Im Berichtszeitraum wurden vor allem die Analysen zur korrekten Rekonstruktion des Datenflussgraphen vorangetrieben. Eine möglichst genaue Rekonstruktion erhöht das Einsparungspotential im Vergleich zu den herkömmlichen sequentiellen Verfahren. Des Weiteren wurden verschiedene Auslagerungsmethoden implementiert. Diese dienen dazu, die von ParSeMiS als häufig eingestuften Code-Fragmente herauszuziehen und damit das Programm zu verkleinern. Die entwickelten Auslagerungsmethoden zeichnen sich vor allem dadurch aus, dass sie möglichst kosteneffizient semantisch gleiche Fragmente vereinheitlichen. 5.2.7 Entwicklung und Anwendung von heuristischen Optimierungsverfahren Projektleitung: PD Dr.-Ing. Gabriella Kókai Beteiligte: Fühner, Tim Dürr, Christoph Péter Kálmán Levente Bodrossy Beginn: 1.1.1999 51 Förderer: Deutscher Akademischer Austauschdienst Mitwirkende Institutionen: Bay Zoltán Alkalmazott Kutatási Alapı́tvány Fraunhofer Institute Integrierte Schaltungen Division of Biogenetics and Natural Resources ARC Seibersdorf research GmbH Fraunhofer-Institut für Integrierte Systeme und Bauelementetechnologie (IISB) Auch in den Jahren 2006 und 2007 gelang es uns erneut, heuristische Optimierungsalgorithmen im Rahmen von Kooperationsprojekten für die Lösung konkreter Anwendungsprobleme einzusetzen. Symbolbasierte Linearisierung von Satellitenkanälen: Ein wichtiger Aspekt bei der drahtlosen Datenübertragung ist die größtmögliche Reduzierung der Übertragungsfehler. Bei der Übertragung von digitalen Daten über einen Satellitenkanal wird das versendete Signal auf verschiedene Weise gestört. Im Rahmen der Kooperation wurden zwei unterschiedliche Aspekte dieser Störungen betrachtet und Verfahren zu deren Reduzierung beschrieben. Der erste Aspekt ist die nichtlineare Verzerrung der Amplitude und die Phase des Signals. Der zweite ist eine Verzerrung des momentanen Signals abhängig von den in einem gewissen Zeitraum vorher übertragenen Daten. Im Zusammenhang damit spricht man auch vom Gedächtnis des Kanals. Zur Beseitigung dieser Effekte gibt es verschiedene Ansätze. Man kann unterscheiden zwischen einer Vorverzerrung des zu sendenden Signals vor der Übertragung und einer Nachbearbeitung des empfangenen Signals. Der Schwerpunkt der Zusammenarbeit lag in der Entwicklung und der Implementierung von Verfahren zur symbolbasierten, und damit digitalen Vorverzerrung von Daten bei der Übertragung durch Satellitenkanäle. Zwei Methoden zur Linearisierung von Satellitenkanälen wurden beschrieben und analysiert. Im Gegensatz zu klassischen, analogen Verfahren wurden hier symbolbasierte Verfahren zur Vorverzerrung der zu übertragenden Daten verwendet. Als Repräsentation der Vorverzerrungsfunktion wurden bei einem Verfahren Baumstrukturen eingesetzt, beim anderen Polynome. Bei der Optimierung der Baumstrukturen wurden von evolutionären Algorithmen bekannte Ideen angewandt. Die Polynome wurden mit einem Partikelschwarmalgorithmus optimiert. Es stellte sich heraus, dass das auf Bäumen basierende Verfahren schnell gute Ergebnisse liefert, allerdings einen sehr hohen Speicheraufwand hat. Die Optimierung der Polynome benötigt einige Zeit zum Erreichen ähnlicher Ergebnisse, benötigt jedoch wesentlich weniger Speicher und ist auch weniger aufwändig in der Implementierung. Die Ergebnisse bilden einen soliden Ausgangspunkt zur Entwicklung eines Vorverzerrers 52 mit einer besseren Übertragungsqualität der Satellitenübertragung. Kostensparende Maskenplanung für DNA-Chips: Außerdem wurde zusammen mit dem Bay Zoltán Forschungsinstitut Szeged an der Anwendung von heuristischen Optimierungsmethoden in der DNA-Chip-Herstellung gearbeitet. DNA-Chips dienen der medizinischen Diagnostik. Sie beschleunigen nicht nur den Nachweis der Anwesenheit von Krankheitserregern enorm, sondern steigern die Präzision der Bestimmung der Krankheitserreger erheblich. Leider sind DNA-Chips noch teuer. Beispielsweise kostet die Herstellung 80 gleichartiger Chips mit 20.000 Sondennukleotiden heute ca. 40.000 Euro, wobei die Herstellung der so genannten Masken den Löwenanteil ausmacht. Deshalb haben wir uns im Rahmen des Projekts mit der Optimierung des Planungsprozesses für diese Masken beschäftigt, vor allem unter Kostenaspekten. Es gibt bislang keine Lösung zur Vorhersage der thermodynamischen Eigenschaften der Nukleinsäuren. Die Hauptprobleme sind: • Die Parameter, die in der Berechnung benötigt werden und durch zeitraubende und kostspielige Experimente festgestellt werden, können nur in der flüssigen Phase angewendet werden. • Der Mangel an mismatch-Parametern. • Die Parameter hängen stark von den experimentellen Zuständen (z. B. Temperatur, Lösungsmittel etc.) ab. Wir haben ein theoretisches Modell entwickelt, um den Hybridisationprozess zwischen DNA/DNA und DNA/RNA zu schätzen und die vorher erwähnten Defekte zu beseitigen. Basierend auf dieser neuen Methode findet die in-silico-Optimierung in situ im Labor statt und verwendet die ermittelten Parameter in der Modellierung der Hybridisation. Anwendung eines memetischen Algorithmus zur Kalibrierung der MikroLithographie: Zahlreiche Modelle sind entwickelt worden, um die physikalischen und chemischen Eigenschaften des optischen mikro-lithographischen Prozesses zu beschreiben. Viele dieser Modelle sind von Parametern abhängig, die gegen experimentelle Daten kalibriert werden müssen. Mithilfe einer auf einem genetischen Algorithmus (GA) basierenden Optimierung kann zwar eine ausreichend gute Parametereinstellung gefunden werden. Allerdings erfordern die langen Berechnungszeiten und die Notwendigkeit einer Reproduzierbarkeit der Ergebnisse weitere Verfahrensverbesserungen. Erste Ergebnisse zeigen, dass durch Einsatz memetischer Algorithmen (MA) zur Kalibrierung der Photoresistparameter sich sowohl das Konvergenzverhalten als auch die Reproduzierbarkeit steigern lassen. 53 5.2.8 Adaptive Antennen Projektleitung: PD Dr.-Ing. Gabriella Kókai Beteiligte: Dipl.-Ing. Hans Holm Frühauf Beginn: 1.1.2006 Mitwirkende Institutionen: Fraunhofer-Institut für Integrierte Schaltungen IIS Im Rahmen des mit dem Fraunhofer Institut für Integrierte Schaltungen (IIS) in Kooperation laufenden Projekts Adaptive Antennen wird derzeit an einem Demonstrationssystem für intelligente Antennen geforscht. Diese adaptiven Antennen sind in der Lage ihr Antennenrichtdiagramm automatisch in Richtung der besten Empfangsqualität anzupassen. Dies bedeutet, dass die Richtcharakteristik der Antenne derart geformt wird, dass die Hauptkeulen in Richtung der gewünschten Teilnehmer zeigen, diese also bestmöglichen Empfang haben, während Signale störender Sender möglichst unterdrückt werden. Um dieses Antennenrichtdiagramm adaptiv auf Veränderungen der Umwelt hin anzupassen, sind eine Reihe von Hardware-Parametern entsprechend einzustellen. Diese Parameter müssen strengen Echtzeit-Bedingungen genügen und haben signifikanten Einfluss auf die Empfangsqualität der mobilen Sendestationen innerhalb der Reichweite der Gruppenantenne. Einen Ansatz diese Probleme zu umgehen, bietet der Einsatz von adaptiven blinden Beamforming Verfahren, welche ohne Richtungsschätzalgorithmen auskommen. Ziel dieser Arbeit ist ein Verfahren zur Ermittlung einer geeigneten Parameterkonfiguration für eine Antennencharakteristik mittels heuristischen Optimierungsverfahren. Um die Ergenisse vergleichen zu können, wurde im Jahr 2007 ein Richtungsschätzungsverfahren entwickelt. Im Rahmen dieser Arbeit wurde ein Erweitertes Kalman-Filter für die Fusion von DoA- Datenströmen bei der Lokalisierung mittels Richtungsschätzung entwickelt und implementiert. Dabei wurde ein eigenes KalmanFilter-Konzept für die DoA-Lokalisierung entwickelt, das sich sowohl für zwei-, als auch dreidimensionale Lokalisierung bei beliebiger Anordnung der Antennen eignet. In den Software-Simulationen wurden geeignete Parametrisierungen für das DoAKalman-Filter ermittelt. Basierend auf den gewonnenen Ergebnissen wurden bestimmte Simulationsszenarien definiert, um die erwarteten Kalman-Eigenschaften bezüglich Glättung der Schätzwerte, optimale Ausnutzung von Redundanz und Verwertung von Qualitätswerten zu untersuchen, analysieren und bewerten zu können. 54 5.2.9 Optimierung von FIR-Filterstrukturen Projektleitung: PD Dr.-Ing. Gabriella Kókai Beteiligte: Dipl.-Inf. Szilvia Zvada Dipl.-Ing. Hans Holm Frühauf Beginn: 1.1.2006 Kontakt: PD Dr.-Ing. Gabriella Kókai Tel.: +49 9131 85-28996 Fax: +49 9131 85-28809 E-Mail: [email protected] Dank der rapiden Verbreitung elektronischer Systeme im Alltag rückten VLSIChips (very large scale integration) schnell in den Fokus der Forschung. Das Hauptziel in diesem Bereich ist der Entwurf von kleinen und schnellen Chips bei gleichzeitig niedrigem Energieverbrauch. Der Fortschritt der modernen Chipherstellungstechnologie und die zunehmende Packungsdichte haben es ermöglicht, dass heutige VLSI-Chips einige Millionen Transistoren enthalten. Aus der Sicht eines Chipdesigners bedeutet dieses eine beträchtliche Zahl potenzieller Chipstrukturen bei der Suche nach einem optimalen oder annähernd optimalen Chip. So wird die Automatisierung des Designprozesses in zunehmendem Maße wichtig. Im Fall digitaler Filter liegt die Aufmerksamkeit vor allem auf dem Design von FIRFiltern (finite impulse response). Diese Filter werden allgemein verwendet, um digitale Datenströme gemäß einer linearen Funktion umzuwandeln, wie z. B. bei der Linearisierung durch Endverstärker oder bei der Kalibrierung von Audio- oder Videoempfängern. Wenn jedoch die Aufgabe eine nicht-lineare Transformation der Datenströme ist, muss ein manueller und daher zeitraubender Entwurf solcher Filter durchgeführt werden. Das in diesem Projekt entwickelte evolFIR-System schließt diese Lücke, indem es ein neuartiges Entwurfswerkzeug zur Verfügung stellt, das das Logikdesign der polynomischen FIR-Filter-Strukturen optimieren kann. Ein auf DTGP (derivation tree based genetic programming) basierender evolutionärer Algorithmus bildet den Kern von evolFIR. Die Individuen des evolutionären Prozesses sind spezielle Ableitungsbäume, die mögliche Topologien der Funktionselemente (wie Addierer oder Multiplizierer) und der logischen Primitive (wie Verschiebe- und Verzögerungselemente) darstellen. Die zentralen Aufgaben für den Evolutionsprozess sind: • Wir müssen sicher stellen, dass die Individuen immer gültig sind, damit sie stets exakt die vorgegebene Übergangsfunktion beschreiben. Mit anderen Worten, wir 55 müssen verhindern, dass die genetischen Operatoren ein gültiges Individuum in ein ungültiges Individuum umwandeln; • Die Topologie muss bestimmte hardware-spezifische Anforderungen erfüllen, wie z. B. die begrenzte Anzahl der Eingänge der bestimmten Blockelemente. • Es muss erkannt werden, welche Teilgraphen die gleiche Funktion beschreiben. Diese sind wiederzuverwenden, um Redundanz zu verringern. Im Jahr 2007 war der Schwerpunkt unserer Forschung das Verknüpfen des evolFIRSystems mit dem in der Praxis benutzten Hardware-Synthesis-Prozess. Im Verlauf dieses Eingliederungsprozesses haben wir den Kernalgorithmus des Systems mit neuen Optimierungsparametern erweitert, um mehr Spielraum bei der Optimierung praxisrelevanter Probleme zu gewinnen. Diese Flexibilität war notwendig, um qualitativ bessere Resultate zu erzielen, und da es sehr schwierig ist, die von uns voroptimierte Topologie mit Ergebnissen des Hardware-Synthesis-Prozesses in Relation zu setzen. Der Grund dafür ist, dass unsere besten Ergebnisse während des Synthesis-Prozesses noch von zahlreichen weiteren Aspekten weiteroptimiert werden. Wir experimentierten mit dem Xilinx Core Generator 9.1 auf der FPGA-Plattform Virtex(TM)-II-Pro. Im Falle der MAC-FIR-Architektur (Multiply Accumulate FIR), haben unsere Filter-Strukturen bis zu 50 % weniger Multiplizierer und sind bis zu 19 % schneller als nur mit dem Xilinx Generator erzeugte Strukturen. Die Tests auf einer anderen Architektur – der sogenannte Distributed Arithmetic FIR Architecture (Filter-Strukturen ohne Multiplizierer)– ergeben aber nicht so klare Resultate. Obwohl unseren Filterstrukturen weniger Slices und logische Tabellen beinhalten, benutzen sie mehr Shift-Registers, was möglicherweise der Grund sein kann warum unsere Filtern langsamer sind als die Filtern, die nur mit dem Xilinx Generator optimiert sind. 5.2.10 Graphen und Graphtransformationen Projektleitung: Prof. em. Dr. Hans Jürgen Schneider Laufzeit: 1.10.2004–30.9.2010 Kontakt: Prof. em. Dr. Hans Jürgen Schneider Tel.: +49 9131 85-27620 Fax: +49 9131 85-28809 E-Mail: [email protected] Graphen werden an vielen Stellen als intuitives Hilfsmittel zur Verdeutlichung komplizierter Sachverhalte verwendet. Außerhalb der Informatik trifft dies z. B. auf 56 die Biologie oder Chemie zu, wo Moleküle grafisch modelliert werden. Innerhalb der Informatik werden Daten- bzw. Kontrollflussdiagramme, Entity-RelationshipDiagramme oder Petri-Netze zur Visualisierung sowohl von Software- als auch von Hardware-Architekturen häufig verwendet. Graphgrammatiken und Graphtransformationen kombinieren Ideen aus den Bereichen Graphentheorie, Algebra, Logik und Kategorientheorie, um Veränderungen an Graphen formal zu beschreiben. Die zugrunde liegende Theorie ist ein attraktives Hilfsmittel, äußerst unterschiedliche Strukturen in einer einheitlichen Weise zu beschreiben, z. B. die unterschiedlichen Modelle für asynchrone Prozesse: Petri-Netze basieren auf gewöhnlichen markierten Graphen, Statecharts verwenden hierarchische Graphen, die parallele logische Programmierung kann mithilfe so genannter Dschungel graphentheoretisch interpretiert werden, und die Aktorsysteme lassen sich als Graphen darstellen, deren Markierungsalphabet eine Menge von Termgraphen ist. Im Jahre 2006 wurden neue Ergebnisse auf folgenden Gebieten gefunden: • Wenn zwei oder mehr Produktionen auf einen Graphen angewandt werden können, kann das Ergebnis von der Reihenfolge der Anwendung abhängen, oder die zweite Produktion ist nicht mehr anwendbar, nachdem die erste angewandt wurde. Die meisten Autoren diskutieren das Kriterium zur Prüfung der Unabhängigkeit unter der strengen Voraussetzung, dass beide Seiten der Produktionen injektiv sind, obwohl der ursprüngliche Beweis nichtinjektive rechte Seiten zuließ. Wie einige Autoren explizit anmerken, genügt die Kategorie der strukturiert markierten Graphen der Unabhängigkeitsbedingung nicht. Wir konnten zeigen, dass eine unwesentliche Einschränkung der Struktur des Alphabets ausreicht, um die Gültigkeit des Unabhängigkeitstheorems für wichtige Anwendungen, wie Termgraphen und Datenbankanwendungen, zu garantieren. Die Ergebnisse wurden im Bulletin of the European Association for Theoretical Computer Science (Feb. 2007) veröffentlicht: http://www2.informatik.unierlangen.de/Personen/schneide/parindep.pdf • Mithilfe von Graphtransformationen werden nicht nur allgemeine Graphen generiert und analysiert, auch auf Zeichenketten basierende Sprachen können bearbeitet werden. Insbesondere können kontextfreie Grammatiken zur Hyperkantenersetzung Sprachen behandeln, die in Chomskys Theorie nicht kontextfrei sind. Ein Beweis steht in Abschnitt 3.5 des Lehrbuches über Graphtransformationen: http://www2.informatik.uni-erlangen.de/Personen/schneide/gtbook/chapter3.pdf. Dieser Ansatz kann erfolgreich auf die Probleme Diskontinuierlicher Konstituenten und der freien Wortstellung in natürlichen Sprachen angewandt werden. Z. B. haben Aussagesätze im Englischen eine feste Wortstellung (Subjekt, Verb, Objekte, Präpositionalphrasen), während im Ungarischen der Gebrauch 57 von Wortendungen das Verstehen eines Satzes trotz der vollständig freien Wortordnung sichert. Wir haben eine Notation für Hypergraphproduktionen entwickelt, die es dem Benutzer ermöglicht, die Ordnung der Knoten einzuschränken, und die von HyperEarley, einem Parser für zeichenkettenerzeugende Hypergraphgrammatiken, analysiert werden kann. Die Ergebnisse wurden in den Proceedings of the Third International Conference on Graph Transformations (Natal, Brasilien, Sept. 2006) veröffentlicht: http://www2.informatik.unierlangen.de/Forschung/Publikationen/download/riedl.pdf Im Jahre 2007 haben wir uns auf die Implementierungsaspekte konzentriert: • Der kategorielle Ansatz bei Graphtransformationen ist äußerst generisch: Alle Beweise und Konstruktionen gelten für verschiedene Graphtypen. Nur die grundlegenden Operationen müssen für jede Anwendung detailliert beschrieben werden, die aufgesetzten kategoriellen Eigenschaften sind dann automatisch definiert. Da moderne Programmiersprachen generische Konzepte unterstützen, ist es vielversprechend, den kategoriellen Graphtransformationsansatz in Sprachen wie Java und Haskell zu implementieren. Java benutzt Objektklassen, unterstützt aber nicht wirklich die Mehrfachvererbung, da in Interfaces keine Defaultmethoden erlaubt sind. Andererseits unterstützt Haskell Mehrfachvererbung, aber betrachtet Typklassen. Aus unserer Pilotimplementierung ergeben sich interessante Fragestellungen bezüglich der unterschiedlichen Bedeutung von Generizität. Die Haskell-Version ist bereits verfügbar: http://www2.informatik.unierlangen.de/Personen/schneide/gtbook/appendix-a.pdf 5.2.11 Zeitplanungsalgorithmen Projektleitung: PD Dr.-Ing. habil. Peter Wilke Laufzeit: 1.1.2004–31.12.2008 Kontakt: PD Dr.-Ing. habil. Peter Wilke Tel.: +49 9131 85-27624 Fax: +49 9131 85-28809 E-Mail: [email protected] Zeitpläne müssen in vielen unterschiedlichen Bereichen erstellt werden, z. B. in der Schulstundenplanung oder der Personaleinsatzplanung. Da es sehr mühsam ist, komplexe Zeitpläne wie Schulstundenpläne per Hand zu erstellen, werden die meisten Zeitpläne computerunterstützt generiert. Dazu wurde am Lehrstuhl in den 58 vergangenen Jahren eine Software entwickelt, die es ermöglicht, die Planung unter zuhilfenahme verschiedener Optimierungsalgorithmen durchzuführen. Diese Version der Zeitplanungssoftware wurde aus einer auf genetischen Algorithmen basierenden Version weiterentwickelt, wobei sich zeigte, dass sich einige Erweiterungen wegen der notwendigen Kompatibilität zur Grundversion nicht optimal implementieren ließen. Im Jahr 2005 wurde daher ein komplett neuer Entwurf in Java implementiert. Die neue Version der Software hat die Kernkomponenten: Bedienoberfläche, Steuerung, BasisAlgorithmen, Editor für Beschränkungen, Datenbank, erweiterte Algorithmen sowie Ein- und Ausgabe. Die Basisalgorithmen umfassen genetische Algorithmen, Branch-and-Bound, Simulated Annealing und Tabu Search. Die Datenbank basiert auf SQL-Datenbanken mit Hibernate als Umsetzungsschicht. Die GUI basiert auf der Swing-Bibliothek, der Editor dient zur Eingabe der Ressourcen, Ereignisse und Beschränkungen. Die Steuerung verwendet einen Nachrichtenmechanismus, um die Berechnung auf verteilten Rechnern zu ermöglichen. Zur Qualitätssicherung wurden Testfälle mit JUnit implementiert. Im Jahr 2006 wurde die Software um eine Protokollierungs- und eine Ein/AusgabeKomponente erweitert. Im Jahr 2007 wurden die Lösungen zu 3 Problemstellungen untersucht: Das Stundenplanproblem für Schulen, eine Schichtplanung für ein Krankenhaus und die Gruppeneinteilung für das ”Mädchen und Technik”-Praktikum unserer Fakultät. Zu allen drei Problemen wurden unterschiedliche Algorithmen auf ihre Eignung hin untersucht, insbesondere Tabu Search, Simulated Annealing und Genetische Algorithmen. Weiterhin wurde die Steuerung verteilter Berechnungen verbesssert und erweitert, ebenso die Algorithmensammlung und die Bedienoberfläche. 5.2.12 Praktisches Software Engineering Beteiligte: Prof. Dr. Michael Philippsen Dipl.-Inf. Johannes Drexler Dr.-Ing. Klaudia Dussa-Zieger Dr. Georg Heidenreich Hon.-Prof. Dr.-Ing. Bernd Hindel Hon.-Prof. Dr.-Ing. Detlef Kips PD Dr.-Ing. habil. Peter Wilke Beginn: 1.1.2006 Förderer: Audi AG Siemens AG 59 Daimler Chrysler AG method park Software AG BASYS Gesellschaft für Anwender- und Systemsoftware mbH Unter der Regie der Honorarprofessoren Hindel und Kips, die als Geschäftsführer zweier mittelständischer Software-Beratungsunternehmen über langjährige Praxiserfahrung in industriellen Software-Entwicklungsprojekten verfügen, beschäftigt sich die Arbeitsgruppe ”Praktische Softwaretechnik” mit wissenschaftlich fundierten Methoden zur standardisierten ingenieurmäßigen Erstellung komplexer Softwaresysteme auf Grundlage wohldefinierter Prozesse. Im Vordergrund steht dabei insbesondere der Aspekt einer praxisorientierten, integrierten Anwendung dieser Methoden in realistischen Projekten und in großen, arbeitsteiligen Teams. Neben den Kernprozessen der eigentlichen Software-Entwicklung (Anforderungsdefinition, Analyse, Entwurf, Implementierung, Validierung) finden in diesem Zusammenhang auch prozessbegleitende und -unterstützende Aktivitäten (wie beispielsweise Projektmanagement, Konfigurationsmanagement oder Änderungsmanagement) verstärkte Beachtung. Ein weiteres wesentliches Themengebiet ist schließlich die systematische Modellierung, Dokumentation, Bewertung und kontinuierliche Verbesserung der Entwicklungsprozesse an sich. Im Berichtsjahr 2006/2007 konzentrierte sich die Forschungsarbeit der Arbeitsgruppe ”Praktische Softwaretechnik” auf die folgenden Themen: Automatisierte Integration von Software-Komponenten: Eine reibungslose Wiederverwendung von bewährten Softwarekomponenten in neuen Anwendungssystemen würde viel dazu beitragen, vor dem Hintergrund steigender Anforderungen und sinkender Projektbudgets qualitativ hochwertige Software zu entwickeln. Im Rahmen eines Promotionsprojektes wurden hierzu zunächst Art und Ursache der Probleme untersucht, die sich bei der Wiederverwendung von Softwarekomponenten typischerweise ergeben. Auf dieser Basis wurde eine Beschreibungssprache für Komponenten auf Basis der UML entworfen, die ausreichende Beschreibungsmittel für eine fehlerfreie Integration zur Verfügung stellt. Für entsprechend formulierte Anwendungs- und Komponentenmodelle wurde schließlich ein Generator implementiert, der geeignete Schutzmechanismen gegen die ursprünglich identifizierten Fehlerklassen automatisch erzeugt und diese mit den unveränderten Komponenten zusammen zu fertigen Anwendungssystemen verbindet. Das Promotionsprojekt ist mittlerweile in Form einer Dissertation mit Erfolg abgeschlossen. Definition und Modellierung von Software-Entwicklungsprozessen: Für die Erstellung von qualitativ hochwertiger Software ist es notwendig, die Entwicklungsschritte an die Projektgegebenheiten anzupassen. Dies geschieht durch die projektabhängige Definition und Modellierung von Entwicklungsprozessen. Hierzu wurden im vergangenen Jahr mehrere Promotionsprojekte in Zusammenarbeit mit Automobil60 herstellern bzw. -zulieferern gestartet, um die speziellen Anforderungen von SoftwareEntwicklungsprozessen in der Automobilindustrie für deren Modellierung und Definition zu erforschen. Im Einzelnen wurden Process Patterns für Connected Processes, Process Tailoring und Process Enactment untersucht. Im Rahmen der Betrachtungen wurde klar, dass die heute bekannten (semi-)formalen Ansätze für die Praxis nur bedingt tauglich sind. Ebenso konnte begründet werden, dass die vielen bereits bekannten Arbeiten auf dem Gebiet der Geschäftsprozessdefinition und -modellierung für die Anwendung auf Engineering-Prozesse wie z. B. Software-Entwicklung im Bereich Automobil nicht anwendbar sind, da diese zu wenig Freiheitsgrade bieten bzw. über keine adäquaten Darstellungsmöglichkeiten für dynamische, projektbedingte ProzessAnpassungen verfügen. In 2007 wurde im Rahmen einer Diplomarbeit der Ansatz des Powertype-based Metamodeling für die Meta- und Prozessmodellierung sowie die Ausführung von Prozessen näher untersucht und prototypisch umgesetzt. Metamodellgestützte Generierung von Werkzeugen Überwachung von Software-Entwicklungsprozessen: zur Steuerung und Die Beschreibung und Dokumentation von Software-Entwicklungsprozessen, Aktivitäten und Artefakten mit formalen oder semiformalen Notationen (speziell auf Grundlage der UML) ermöglicht zum einen deren zumindest partiell automatisierte Abwicklung und Steuerung mithilfe geeigneter Werkzeuge bzw. Werkzeugverbünde. Zum anderen wird auch die Überwachung der Prozesstreue sowie die Bewertung und Verbesserung der Prozesse mithilfe zielgerichteter Prozessmetriken wesentlich erleichtert. Ein Forschungsschwerpunkt der Arbeitsgruppe ”Praktische Softwaretechnik” ist deshalb darauf ausgerichtet, mit geeigneten Metamodellierungskonzepten die Grundlage für eine weitgehend automatische Generierung von projekt- und prozessspezifischen Werkzeugumgebungen zur Steuerung, Überwachung und Bewertung der Prozessdurchführung zu schaffen. Um die Praxistauglichkeit des Ansatzes zu gewährleisten, ist insbesondere auch eine weitgehend allgemeingültige Möglichkeit zur Integration existierender, marktgängiger Werkzeuge erforderlich, die zur Bearbeitung spezifischer Teilprozesse eingesetzt werden sollen. Weiterhin ist sicherzustellen, dass auf Prozessausnahmen und Prozessmodifikationen innerhalb eines laufenden Projektes angemessen und flexibel reagiert werden kann. In Zusammenarbeit mit zwei industriellen Kooperationspartnern (Siemens, Audi) wurden bislang die Möglichkeiten und Grenzen UML-basierter Ansätze zur Prozess-Metamodellierung, insbesondere des so genannten SPEM, untersucht. Davon ausgehend wird derzeit versucht, die Praxistauglichkeit der Metamodellsemantik durch spezifische Erweiterungen bzw. Ergänzungen zu verbessern. Eines von mehreren Promotionsprojekten in Planung, die sich mit spezifischen Teilaspekten des Gesamtkonzeptes beschäftigen sollen, hat kürzlich begonnen. Reifegradmodelle für die Software-Entwicklung: 61 Im Bereich der Reifegradmodelle konzentrierten sich die Arbeiten auf die Weiterentwicklung und Anwendung der ISO/IEC 15504 (SPiCE). So ist unter Mitwirkung von Prof. Hindel im April 2006 das erste deutschsprachige Buch zu SPiCE erschienen. Im Oktober wurde Prof. Hindel für die nächsten drei Jahre zum Obmann des DIN für Software- und Systems-Engineering-Standards gewählt (DIN NI07) und vertritt somit Deutschland bei der ISO JTC1 SC7. Im Rahmen von drei Diplomarbeiten wurden Entwicklungsprozessverbesserungen nach SPiCE bei Siemens, DaimlerChrysler und in einem mittelständischen Softwarehaus unterstützt. 5.2.13 International Collegiate Programming Contest an der FAU Projektleitung: Prof. Dr. Michael Philippsen Beteiligte: Dipl.-Inf. Tobias Werth Dipl.-Inf. Alexander Dreweke, B. Sc. mult. Dipl.-Inf. Christian Rieß Pfeiffer, Gerhard Dr.-Ing. Ingrid Fischer Dipl.-Inf. Marc Wörlein Beginn: 1.11.2002 Kontakt: Dipl.-Inf. Tobias Werth Tel.: +49 9131 85-28865 Fax: +49 9131 85-28809 E-Mail: [email protected] Die Association for Computing Machinery (ACM) richtet seit Jahrzehnten den International Collegiate Programming Contest (ICPC) aus. Dabei sollen Teams aus je drei Studenten in fünf Stunden neun bis zehn Programmieraufgaben lösen. Als Erschwernis kommt hinzu, dass nur ein Computer pro Gruppe zur Verfügung steht. Die Aufgaben erfordern solide Kenntnisse von Algorithmen aus allen Gebieten der Informatik und Mathematik, wie z. B. Graphen, Kombinatorik, Zeichenketten, Algebra und Geometrie. Der ICPC wird jedes Jahr in drei Stufen ausgetragen. Zuerst werden innerhalb der Universitäten in lokalen Ausscheidungen maximal drei Teams bestimmt, die dann zu den regionalen Wettbewerben entsandt werden. Erlangen liegt im Einzugsbereich des Southwestern European Regional Contest (SWERC), an dem u. a. auch Teams aus der Schweiz, Frankreich, Spanien und Portugal teilnehmen. Die Sieger aller regionalen Wettbewerbe der Welt (und einige Zweitplatzierte) erreichen die World Finals, die 62 im Frühjahr des darauffolgenden Jahres stattfinden. Im Jahr 2007 fanden zwei lokale Wettbewerbe an der FAU statt. Im Wintersemester wurde ein Mannschaftswettbewerb ausgetragen mit dem Ziel, neue Studierende für die Wettbewerbe zu begeistern. Jedes Team bestand aus maximal drei Studenten. Mehrere Teams der TU München kamen nach Erlangen, um am Wettbewerb teilzunehmen. Im Sommersemester fand zum wiederholten Mal das Hauptseminar ”Hallo Welt! – Programmieren für Fortgeschrittene” statt, um Studierende verschiedener Fachrichtungen in Algorithmen und Wettbewerbs-Aufgaben zu schulen. Der Wettbewerb im Sommersemester diente der Auswahl der studentischen Vertreter der FAU für den SWERC 2007, der in Lissabon stattfand. Insgesamt nahmen 35 Studierende der verschiedensten Fachrichtungen teil. Die besten neun bildeten Dreierteams (der Zehntplatzierte wurde als Ersatzmann ausgewählt) und errangen beim südwesteuropäischen Wettbewerb gegen die internationale Konkurrenz die Plätze 4, 17 und 36 von insgesamt 64 teilnehmenden Teams. Das beste Team holte sich somit punktgleich mit den Gewinnern eine Goldmedaille. Das 2007 erstmals stattfindende Trainingslager zeigte somit den gewünschten Erfolg. 5.3 Publikationen – Danyi, Kornélia ; Kókai, Gabriella ; Csontos, József: A novel Mathematical Model for the Optimization of DNA-Chip Design and its Implementation . In: Rothlauf, F. et al. (Hrsg.) : EuroGP2006 & EvoCOP2006, incorporating EvoWorkshops2006, Budapest, 10.–12.04.2006.. Springer-Verlag (Lecture Notes in Computer Science Bd. 3907), S. 23-33. – Bartha, C. ; Spiegelhauer, T. ; Dormeyer, R. ; Fischer, Ingrid: Word Order and Discontinuities in Dependency Grammar . In: Acta Cybernetica 17 (2006), S. 617632. – Berthold, Michael R. ; Glen, Robert ; Fischer, Ingrid (Hrsg.): Computational Life Sciences II, 2nd International Symposium on Computational Life Science, Cambridge, UK, 17.–29.09.2006, Springer-Verlag (Lecture Notes in Bioinformatics Bd. 4216). – Böhner, Martin ; Kókai, Gabriella ; Frühauf, Hans Holm: Dynamic hardwarebased optimization for adaptive array antennas . In: Zha, Xuan F. ; Howlett, H.J. (Hrsg.) : Integrated Intelligent Systems for Engineering Design. Amsterdam, The Netherlands : IOS Press, 2006, S. 362-388. – ISBN 1-58603-675-0. – Dreweke, Alexander: Procedural Abstraction for ARM-Architectures . ErlangenNürnberg, Friedrich-Alexander-Universität, Dipl-Arb., 2006. – 75 Seiten. 63 – Hardung, Bernd: Optimisation of the Allocation of Functions in Vehicle Networks . Shaker Verlag, 2006. Zugl.: Erlangen, Universität, Diss., 2006. – 186 Seiten. ISBN 978-3-8322-5687-6. – Hardung, Bernd ; Kollert, Thomas: Optimisation of the Variant Combination of Control Units Considering the Order History . In: Haasis, H.-D. ; Kopfer, H. ; Schönberger, J. (Hrsg.) : Proceedings Operations Research, Bremen, 7.– 9.09.2005. Springer-Verlag, S. 361-366. – ISBN 3-540-32537-9. – Hörmann, Klaus ; Dittmann, Lars ; Hindel, Bernd ; Müller, Markus: SPiCE in der Praxis – Interpretationshilfe für Anwender und Assessoren . 2. Aufl. Heidelberg : dPunkt Verlag, 2006. – 301 Seiten. ISBN 978-3898643412. – Klemm, Michael ; Veldema, Ronald ; Bezold, Matthias ; Philippsen, Michael: A Proposal for OpenMP for Java . In: Université de Reims (Veranst.) : Proceedings of the International Workshop on OpenMP, Reims, France, 12.-15.06.2006. CDROM. – Klemm, Michael ; Bezold, Matthias ; Veldema, Ronald ; Philippsen, Michael: JaMP: An Implementation of OpenMP for a Java DSM . In: Arenaz, Manuel ; Doallo, Ramón ; Fraguela, Basilio B. ; Touriño, Juan (Hrsg.) : Proceedings of the 12th Workshop on Compilers for Parallel Computers, A Coruna, Spain, 9.– 11.01.2006. S. 242-255. – Kókai, Gabriella ; Christ, Tonia ; Frühauf, Hans Holm: Using hardware-based particle swarm method for dynamic optimization of adaptive array antennas . In: Keymeulen Didier (Hrsg.) : Proc. First NASA/ESA Conference on Adaptive Hardware and Systems, Istambul, Turkey, 16.–18.06.2006. – Meinl, Thorsten ; Wörlein, Marc ; Fischer, Ingrid ; Philippsen, Michael: Mining Molecular Datasets on Symmetric Multiprocessor Systems . In: IEEE (Veranst.) : Proceedings of the 2006 IEEE International Converence on Systems, Man and Cybernetics, Taipei, Taiwan, 08.–11.10.2006. S. 1269-1274. – Meinl, Thorsten ; Wörlein, Marc ; Urzova, Olga ; Fischer, Ingrid ; Philippsen, Michael: The ParMol Package for Frequent Subgraph Mining . In: Electronic Communications of the EASST (ISSN: 1863-2122) Volume 1 (2006), Nr. 1, S. 1-12. – Meinl, Thorsten ; Wörlein, Marc ; Urzova, Olga ; Fischer, Ingrid ; Philippsen, Michael: The ParMol package for frequent subgraph mining . In: Zündorf, Albert ; Varro, Daniel (Hrsg.) : Third International Workshop on Graph Based Tools, Natal, Brasil, 21.–22.09.2006. S. 94-105. 64 – Riedl, Martin ; Seifert, Sebastian ; Fischer, Ingrid: String Generating Hypergraph Grammars with Word Order Restrictions . In: Corradini, A. ; Ehrig, H. ; Montanari, U. ; Ribeiro, L. ; Rozenberg, G. (Hrsg.) : Graph Transformations – ICGT 2006 (International Conference on Graph Transformations), Natal, Brasil, 17.– 23.09.2006. Springer-Verlag, S. 138-152. (Lecture Notes in Computer Science Bd. 4178). – Wörlein, Marc ; Dreweke, Alexander ; Meinl, Thorsten ; Fischer, Ingrid ; Philippsen, Michael: Edgar: the Embedding-baseD GrAph MineR . In: Gärtner, Thomas ; Garriga, Gemma C. ; Meinl, Thorsten (Hrsg.) : Proceedings of the International Workshop on Mining and Learning with Graphs, 2006, S. 221-228. – Wörlein, Marc: Extension and parallelization of a graph-mining-algorithm . Erlangen-Nürnberg, Friedrich-Alexander-Universität, Dipl-Arb., 2006. – 76 Seiten. – Förster, Manuel ; Bickel, Bettina ; Hardung Bernd ; Kókai, Gabriella: SelfAdaptive Ant Colony Optimisation Applied to Function Allocation in Vehicle Networks . In: Hod Lipson (Hrsg.) : Proceeding Genetic and Evolutionary Computation Conference (GECCO-2007), London, UK, 7.–11.07.2007. – Dreweke, Alexander ; Wörlein, Marc ; Fischer, Ingrid ; Schell, Dominic ; Meinl, Thorsten ; Philippsen, Michael: Graph-Based Procedural Abstraction . In: IEEE Computer Society (Veranst.) : Proc. of the 2007 CGO (The Fifth International Symposium on Code Generation and Optimization), San Jose, USA, 11.– 14.03.2007. IEEE Computer Society, S. 259-270. – ISBN 0-7695-2764-7. – Dürr, Christoph ; Fühner, Tim ; Tollkühn, Bernd ; Erdmann, Andreas ; Kókai, Gabriella: Application of a memetic algorithm to the calibration of microlithography . In: Abraham, Ajith ; Grosan, Crina (Hrsg.) : Hybrid Evolutionary Algorithms. Springer-Verlag, 2007. – Hardung, Bernd ; Kölzow, Thorsten ; Krüger, Andreas: Reuse of Software in Distributed Embedded Automotive Systems . In: Navet, Nicolas ; Simonot-Lion, Françoise (Hrsg.) : Automotive Embedded Systems Handbook. London : Taylor & Francis / CRC Press, 2007. – ISBN 084938026X. – Hofmann, Matthias ; Klein, Arno ; Kókai, Gabriella: Adaptive Optimierung des Prefetch-Verhaltens bei objektorientierten Multi-Tier Client-Server-Systemen . In: Hinneburg, Alexander ; Klinkenberg, Ralf ; Mierswa, Ingo (Hrsg.) : Workshop-Week: Lernen-Wissen-Adaption (Knowledge Discovery, Data Mining, and Machine Learning), Halle, 24.–26.09.2007. 65 – Hoyer, Juliane ; Dreweke, Alexander ; Becker, Christian ; Göhring, Ina ; Thiel, Christian ; Peippo, Maarit ; Rauch, Ralf ; Hofbeck, Michael ; Trautmann, Udo ; Zweier, Christiane ; Zenker, Martin ; Hüffmeier, Ulrike ; Kraus, Cornelia ; Ekici, Arif ; Rüschendorf, Franz ; Nürnberg, Peter ; Reis, André ; Rauch, Anita: Molecular karyotyping in patients with mental retardation using 100 K SNP arrays . In: Journal of Medical Genetics 5 (2007), Nr. 1, S. 1-26. – Klemm, Michael ; Beyler, Jean Christophe ; Lampert, Ronny T. ; Philippsen, Michael ; Clauss, Philippe: Esodyp+: Prefetching in the Jackal Software DSM . In: Kermarrec, Anne-Marie ; Bougé, Luc ; Priol, Thierry (Hrsg.) : Proceedings of the Euro-Par 2007 Conference, Rennes, France 29.–31.08.2007. Springer-Verlag, S. 563-573. – ISBN 978-3-540-74465-8. – Klemm, Michael ; Bezold, Matthias ; Veldema, Ronald ; Philippsen, Michael: JaMP: An Implementation of OpenMP for a Java DSM . In: Concurrency and Computation: Practice and Experience 18 (2007), Nr. 19, S. 2333-2352. – Klemm, Michael ; Philippsen, Michael: Reparallelisierung und Migration von OpenMP-Applikationen . In: Gesellschaft für Informatik e.V. (Hrsg.) : 21. Workshop Parallel-Algorithmen und Rechnerstrukturen (PARS), Hamburg, 31.05.– 01.06.2007. S. 65-76. – Klemm, Michael ; Bezold, Matthias ; Gabriel, Stefan ; Veldema, Ronald ; Philippsen, Michael: Reparallelization and Migration of OpenMP Programs . In: Schulze, Bruno ; Buyya, Rajkuma ; Navaux, Philippe ; Cirne, Walfredo ; Rebello, Vinod (Hrsg.) : Proceedings of the 7th International Symposium on Cluster Computing and the Grid, Rio de Janeiro, Brazil, 14.–17.05.2007. IEEE Computer Society, S. 529-537. – ISBN 978-0-7695-2833-5. – Kókai, Gabriella ; Böhner, Martin ; Christ, Tonia ; Frühauf, Hans Holm: Parallel Dynamic Parameter Adaption of Adaptive Array Antennas Based on Nature Inspired Optimisation . In: Journal of Computers (2007), Nr. 3, S. 64-75. – Schneider, Hans Jürgen: Relabeling and the independence theorem in the doublepushout approach to graph transformations . In: Bulletin of the European Association for Theoretical Computer Science (EATCS) 91 (2007), S. 208-223. – Veldema, Ronald ; Philippsen, Michael: Evaluation of RDMA opportunities in an Object-Oriented DSM . In: Adve, Vikram (Hrsg.) : Proceedings of the 20th International Workshop on Languages and Compilers for Parallel Computing (LCPC ’07), Illinois, USA, 11.–13.10.2007. S. 1-15. – Veldema, Ronald ; Philippsen, Michael: Supporting Huge Address Spaces in a Virtual Machine for Java on a Cluster . In: Adve, Vikram (Hrsg.) : Proceedings of 66 the 20th International Workshop on Languages and Compilers for Parallel Computing (LCPC ’07), Illinois, USA, 11.–13.10.2007, S. 1-15. – Werth, Tobias: Design and Implementation of a DAG-Miner . Erlangen-Nürnberg, Friedrich-Alexander-Universität, Dipl-Arb., 2007. – 111 Seiten. – Zvada, Szilvia ; Kókai, Gabriella ; Frühauf, Hans Holm ; Vanyi Robert: evolFIR: Evolving redundancy-free FIR structures . In: Tughrul Arslan (Hrsg.) : Proceedings NASA/ESA Conference on Adaptive Hardware and Systems (AHS 2007), Edinburgh, Scotland, UK, 5.–8.08.2007. – Zweier, Christiane ; Peippo, Maarit ; Hoyer, Juliane ; Sousa, Sérgio ; Bottani, Armand ; Clayton-Smith, Jill ; Reardon, William ; Göhring, Ina ; Devriendt, Koen ; De Ravel, Thomy ; Bijlsma, Emilia ; Hennekam, Raoul ; Orrico, Alfredo ; Dreweke, Alexander ; Nürnberg, Peter ; Rauch, Anita : Haploinsufficiency of TCF4 causes syndromal mental retardation with intermittent hyperventilation (Pitt-Hopkins syndrome). In: The American Journal of Human Genetics (2007), S. 1-26. 5.4 Studien- und Abschlussarbeiten – Diplomarbeit: Entwurf und Implementierung einer web-basierten Bedienoberfläche für ein Framework für Zeitplanungsprobleme. Bearbeiter: Adel Habassi (beendet am 4.1.2006); Betreuer: PD Dr.-Ing. habil. Peter Wilke – Studienarbeit: Design und Implementierung von Garbage-Collectoren für Programmcode. Bearbeiter: Matthias Hampel (beendet am 13.1.2006); Betreuer: Dipl.-Inf. Dominic Schell; Prof. Dr. Michael Philippsen – Studienarbeit: Diskontinuitäten in Dependenzparsern. Bearbeiter: Tilmann Spiegelhauer (beendet am 15.1.2006); Betreuer: Dr.-Ing. Ingrid Fischer; Prof. Dr. Michael Philippsen – Diplomarbeit: Entwurf und Implementierung eines Editors zur Beschreibung der Constraints und Ressourcen für Zeitplanungsalgorithmen. Bearbeiter: Gerlinde Gagesch (beendet am 16.1.2006); Betreuer: PD Dr.-Ing. habil. Peter Wilke – Diplomarbeit: Entwurf und Implementierung einer Persistenz-Komponente für ein Framework für Zeitplanungsprobleme. Bearbeiter: Hichem Essafi (beendet am 1.2.2006); Betreuer: PD Dr.-Ing. habil. Peter Wilke – Studienarbeit: Entwicklung eines Dokumentengenerators. Bearbeiter: Matthias Kurz (beendet am 3.2.2006); Betreuer: Dr.-Ing. Ingrid Fischer; Prof. Dr. Michael Philippsen 67 – Studienarbeit: Entwicklung eines Invalidation-Protokoll-basierten Cachekohärenz-Prozessors für ein Mehrprozessor-FPGA. Bearbeiter: Peter Schlez (beendet am 20.02.2006); Betreuer: Ronald Veldema, Ph.D.; Prof. Dr. Christophe Bobda – Studienarbeit: Entwicklung eines Update-Protokoll-basierten CachekohärenzProzessors für ein Mehrprozessor-FPGA. Bearbeiter: Michael Eckerlein (beendet am 20.02.2006); Betreuer: Ronald Veldema, Ph.D.; Prof. Dr. Christophe Bobda – Diplomarbeit: Erweiterung und Parallelisierung eines Graph-MiningAlgorithmus. Bearbeiter: Marc Wörlein (beendet am 29.3.2006); Betreuer: Dr.-Ing. Ingrid Fischer; Prof. Dr. Michael Philippsen – Studienarbeit: Erzeugung von Sicherungspunkten in verteilten JackalAnwendungen. Bearbeiter: Christian Iwainsky (beendet am 29.3.2006); Betreuer: Dipl.-Inf. Michael Klemm; Prof. Dr. Michael Philippsen – Diplomarbeit: Prozedurale Abstraktion für ARM-Architekturen. Bearbeiter: Alexander Dreweke (beendet am 29.3.2006); Betreuer: Prof. Dr. Michael Philippsen; Dipl.-Inf. Dominic Schell; Dr.-Ing. Ingrid Fischer – Diplomarbeit: Anwendung von Schwarmintelligenz auf Mehrkriterienoptimierungsprobleme mit Nebenbedingungen. Bearbeiter: Bettina Bickel (beendet am 4.4.2006); Betreuer: PD Dr.-Ing. Gabriella Kókai; Prof. Dr. Michael Philippsen – Diplomarbeit: Implementation of a Grid-wide File System. Bearbeiter: Sasha Ruppert (beendet am 10.04.2006); Betreuer: Ronald Veldema, Ph.D.; Prof. Dr. Michael Philippsen – Diplomarbeit: Entwurf und Implementierung von Algorithmen für Zeitplanungsprobleme. Bearbeiter: Andreas Konrad (beendet am 18.04.2006); Betreuer: PD Dr.-Ing. habil. Peter Wilke – Diplomarbeit: (Adaptive) Optimierung des Prefetch-Verhaltens bei objektorientierten Multi-Tier Client-Server-Systemen. Bearbeiter: Matthias Hofmann (beendet am 26.4.2006); Betreuer: PD Dr.-Ing. Gabriella Kókai; Prof. Dr. Michael Philippsen – Diplomarbeit: Intelligente Lernverfahren zur symbolbasierten Linearisierung herkömmlicher Satellitenkanäle. Bearbeiter: Christian Siller (beendet am 15.05.2006); Betreuer: PD Dr.-Ing. Gabriella Kókai; Prof. Dr. Michael Philippsen 68 – Diplomarbeit: Entwurf einer EC++-Spezifikation und -Implementierung auf Basis von ISO C. Bearbeiter: Christoph Dietze (beendet am 3.7.2006); Betreuer: Dipl.Inf. Michael Klemm; Prof. Dr. Michael Philippsen – Studienarbeit: Entwicklung eines Jackal-Frontends für die Programmiersprache Fortress. Bearbeiter: Stefan Hanke (beendet am 6.7.2006); Betreuer: Ronald Veldema, Ph.D.; Dipl.-Inf. Michael Klemm; Prof. Dr. Michael Philippsen – Diplomarbeit: Datenlokalität und Datenverteilung im JaMP-Programmiermodell. Bearbeiter: Ronny T. Lampert (beendet am 07.08.2006); Betreuer: Dipl.-Inf. Michael Klemm; Prof. Dr. Michael Philippsen – Diplomarbeit: Ressourcen-Planung: Ressourcen-Planung und Kapazitätsauslastungsvorhersage unter Verwendung einer ProjektmanagementSoftware. Bearbeiter: Ümit Sormaz (beendet am 21.08.2006); Betreuer: Prof. Dr. Michael Philippsen – Studienarbeit: Anbindung eines Zeitplanungssystems an Windows-Software. Bearbeiter: Ronny Heft (beendet am 30.08.2006); Betreuer: PD Dr.-Ing. habil. Peter Wilke – Diplomarbeit: Entwurf und Implementierung einer Protokollierungs-Komponente für ein Zeitplanungs-System. Bearbeiter: Monic Klöden (beendet am 30.08.2006); Betreuer: PD Dr.-Ing. habil. Peter Wilke – Diplomarbeit: Adaptives Multi-Processing auf rekonfigurierbaren Chips. Bearbeiter: Thomas Haller (beendet am 01.09.2006); Betreuer: Ronald Veldema, Ph.D.; Prof. Dr. Michael Philippsen; Prof. Dr. Christophe Bobda – Diplomarbeit: Dynamische Parameteroptimierung für evolutionäre Verfahren zur Anwendung auf ein Mehrkriterienoptimierungsproblem mit Nebenbedingungen. Bearbeiter: Manuel Förster (beendet am 15.09.2006); Betreuer: PD Dr.-Ing. habil. Peter Wilke; PD Dr.-Ing. Gabriella Kókai – Diplomarbeit: Dynamische Prozessmengen im JaMP-Programmiermodell. Bearbeiter: Matthias Bezold (beendet am 4.10.2006); Betreuer: Dipl.-Inf. Michael Klemm; Prof. Dr. Michael Philippsen – Diplomarbeit: Parallelisierung der Generierung von redundanzreduzierten FIRFilterstrukturen. Bearbeiter: Hampel Matthias (beendet am 4.10.2006); Betreuer: Dipl.-Inf. Michael Klemm; Dipl.-Inf. Szilvia Zvada; PD Dr.-Ing. Gabriella Kókai; Prof. Dr. Michael Philippsen 69 – Master Thesis: SPiCE compliant Project Management used in Software Development. Bearbeiter: Michael Rühlicke (beendet am 04.10.2006); Betreuer: Hon.Prof. Dr.-Ing. Bernd Hindel; Prof. Dr. Michael Philippsen – Diplomarbeit: Multi-objective optimization of lithographic process conditions using a genetic algorithm. Bearbeiter: Sebastian Seifert (beendet am 23.10.2006); Betreuer: PD Dr.-Ing. Gabriella Kókai; PD Dr.-Ing. habil. Peter Wilke – Diplomarbeit: Erzeugung von verteilten Sicherungspunkten in heterogenen Umgebungen. Bearbeiter: Stefan Gabriel (beendet am 24.10.2006); Betreuer: Dipl.Inf. Michael Klemm; Ronald Veldema, Ph.D.; Prof. Dr. Michael Philippsen – Diplomarbeit: Analyse eines Softwareentwicklungsprozesses nach ISO 15504 (SPICE) am Beispiel eines durchgeführten Projektes. Bearbeiter: Ulrike Steinbach (beendet am 01.12.2006); Betreuer: Hon.-Prof. Dr.-Ing. Bernd Hindel – Diplomarbeit: Implementierung und Bewertung eines alternativen Parallelitätsparadigmas für JaMP. Bearbeiter: Benjamin Bieber (beendet am 19.12.2006); Betreuer: Dipl.-Inf. Michael Klemm; Prof. Dr. Michael Philippsen – Diplomarbeit: Entwurf und Implementation eines DAG-Miners. Bearbeiter: Tobias Werth (beendet am 15.1.2007); Betreuer: Dipl.-Inf. Marc Wörlein; Dipl.-Inf. Alexander Dreweke, B. Sc. mult.; Dr.-Ing. Ingrid Fischer; Prof. Dr. Michael Philippsen – Diplomarbeit: Konzeption und Implementierung von Software-Metriken in einem Prozess-Framework. Bearbeiter: Matthias Igel (beendet am 14.03.2007); Betreuer: Hon.-Prof. Dr.-Ing. Bernd Hindel; Prof. Dr. Michael Philippsen – Master Thesis: Analysis and Improvement of Software Development Processes of Embedded Systems Using Automotive SPICE. Bearbeiter: Peter Mertas (beendet am 02.04.2007); Betreuer: Hon.-Prof. Dr.-Ing. Bernd Hindel; Prof. Dr. Michael Philippsen – Diplomarbeit: Kriterienbasierter Vergleich von WYSIWYG DITA-XMLEditoren. Bearbeiter: Martin Meyer (beendet am 02.05.2007); Betreuer: Dipl.-Inf. Dominic Schell; Prof. Dr. Michael Philippsen – Studienarbeit: Prozedurale Abstraktion kanonischer Fragmente. Bearbeiter: Armin Heckmann (beendet am 1.6.2007); Betreuer: Dipl.-Inf. Alexander Dreweke, B. Sc. mult.; Prof. Dr. Michael Philippsen – Studienarbeit: Entwicklung eines JaMP-Editors für das Eclipse-Framework. Bearbeiter: Arne Becker (beendet am 13.07.2007); Betreuer: Dipl.-Inf. Michael Klemm; Prof. Dr. Michael Philippsen 70 – Diplomarbeit: Fallstudie zur Modellierung von Software-Entwicklungsprozessen auf Basis des Software Process Engineering Metamodel 2.0. Bearbeiter: Maximilian Brunner (beendet am 16.07.2007); Betreuer: Hon.-Prof. Dr.-Ing. Detlef Kips; Prof. Dr. Michael Philippsen – Studienarbeit: Restrukturierung einer Lernumgebung für das objektierte Modellieren. Bearbeiter: Silvia Schreier (beendet am 13.09.2007); Betreuer: Prof. Dr. Torsten Brinda – Diplomarbeit: Geschwindigkeitssteigerung eines Optimierungsframeworks zur relativenPositionierung. Bearbeiter: Alexander Genzdilov (beendet am 28.09.2007); Betreuer: Dipl.-Inf. Stefan Wittmann; Dipl.-Inf. Sabine Helwig; PD Dr.-Ing. Gabriella Kókai – Hausarbeit: Entwurf und Analyse einer Sammlung von Aufgaben für ein ELearning-Modul zum objektorientierten Modellieren zur Weiterqualifizierung von Lehrkräften am bayerischen Gymnasium. Bearbeiter: Sandra Leibinger (beendet am 04.10.2007); Betreuer: Prof. Dr. Torsten Brinda – Studienarbeit: Fusion von DoA-Datenströmen für Lokalisierungssysteme. Bearbeiter: Bernhard Kloiber (beendet am 11.12.2007); Betreuer: PD Dr.-Ing. Gabriella Kókai – Studienarbeit: Tackling Transportation Problems An Evolutionary Approach. Bearbeiter: Moritz Mülenthaler (beendet am 20.12.2007); Betreuer: PD Dr.-Ing. Gabriella Kókai 71 6 Professur für Didaktik der Informatik Anschrift: Martensstr. 3, 91058 Erlangen Tel.: +49 9131 85-27921 Fax: +49 9131 85-28809 E-Mail: [email protected] Die Fachgruppe für ”Didaktik der Informatik” wurde im April 2005 mit der Besetzung der Professur durch Prof. Dr. Torsten Brinda neu gegründet und ist organisatorisch dem Lehrstuhl Informatik 2 zugeordnet. Bereits in den Jahren zuvor wurden mehrere zweijährige Nachqualifikationskurse im Rahmen des ”Sofortprogramms Informatik am Gymnasium – Nachqualifikation von Lehrkräften (SIGNAL)” unter der Leitung von abgeordneten Informatiklehrern erfolgreich durchgeführt. Der letzte dieser Kurse endete im Studienjahr 2005/06. Arbeitsschwerpunkte der Gruppe bilden: • die informatikdidaktische Ausbildung von Informatik-Lehramtsstudierenden sowie • die informatikdidaktische Forschung. Lehre: Didaktik der Informatik I, Didaktik der Informatik II, Theoretische Informatik für das Lehramt, E-Learning, Informationssysteme aus fachdidaktischer Sicht, informatikdidaktische Schulpraktika und zugehörige Begleitveranstaltungen 6.1 Forschungsschwerpunkte Das übergeordnete Ziel der Forschung der Fachgruppe ”Didaktik der Informatik” ist die Weiterentwicklung informatischer Bildung, insbesondere des Informatikunterrichts an Schulen. Aus informatischer Sicht sind hierzu einerseits Konzeptionen für softwarebasierte Lernhilfen für vielfältige Ausbildungsszenarios und andererseits für die Strukturierung von Lehr-Lern-Szenarios der Informatik von Belang. Beides erfordert Wissen über den informatischen Erkenntnisprozess bei Lernenden. Diesen drei Bereichen sind die Forschungsschwerpunkte der Arbeitsgruppe zugeordnet: I.) Informatischer Erkenntnisprozess • Entwicklung und theoretische Fundierung von Bildungsstandards für den Informatikunterricht (Aufgaben, Kompetenzmodelle, Testmethoden) 72 • Analyse und Evaluation von Informatikunterricht II.) Lernhilfen der Informatik • Konzeption, Implementierung und Evaluation interaktiver, multimedialer LehrLern-Systeme • Konzeption, Implementierung und Evaluation lernförderlicher Infrastrukturen III.) Lehr-Lern-Szenarios der Informatik • Entwicklung und Evaluation von Blended Learning Konzepten für den Informatikunterricht • Entwicklung und Evaluation von Konzepten für die Informatiklehrerausbildung 6.2 Kooperationsbeziehungen • FU Berlin, Didaktik der Informatik • Universität Kassel, Software Engineering • TU München, Didaktik der Informatik • Uni Münster, Didaktik der Informatik • Universität Paderborn, Didaktik der Informatik • Universität Potsdam, Didaktik der Informatik • Universität Siegen, Didaktik der Informatik und E-Learning 6.3 6.3.1 Forschungsprojekte Bildungsstandards der Informatik Projektleitung: Prof. Dr. Torsten Brinda Stichwörter: Bildungsstandards, Kompetenzmodelle, Aufgabenklassen Beginn: 1.7.2004 Kontakt: 73 Prof. Dr. Torsten Brinda Tel.: +49 9131 85-27922 Fax: +49 9131 85-28809 E-Mail: [email protected] Auf der Basis eigener Vorarbeiten zu informatikdidaktischen Systemen werden, motiviert durch die Schlussfolgerungen aus den PISA-Studien zur Verstärkung der Output-Steuerung von Lehr-Lern-Prozessen, (Mindest-)Bildungsstandards für verschiedene Themenschwerpunkte des Informatikunterrichts erforscht. Zentrale Teilziele hierbei sind: • die Analyse des Zusammenhangs zwischen so genannten Aufgabenklassen und Stufen noch zu entwickelnder Kompetenzmodelle, • die Identifikation weiterer Aufgabenklassen und Kompetenzstufen durch Literaturstudien sowie • die Entwicklung und Erprobung von Testitems im PISA-Sinne und geeigneten Software-Werkzeugen zur Analyse der Kompetenzprofile von Lernern und zur iterativen Präzisierung des Modells. Forschungsmethodisch werden in diesem Projekt die Entwicklung von informatikdidaktischen Konzepten, theoretische Literaturanalysen und eine Kombination aus qualitativen und quantitativen empirischen Methoden miteinander verknüpft. Publikationen – Brinda, Torsten: Integration of new exercise classes into the Informatics education in the field of object-oriented modelling . In: Education and Information Technologies 9 (2004), Nr. 2, S. 117-130 – Brinda, Torsten: Preparing educational standards in the field of object-oriented modelling . In: Magenheim, Johannes ; Schubert, Sigrid (Hrsg.) : Informatics and student assessment. Concepts of empirical research and standardization of measurement in the area of didactics of informatics (Informatics and student assessment. Concepts of empirical research and standardization of measurement in the area of didactics of informatics Dagstuhl 19.-24.09.2004). 1. Aufl. Bonn : Köllen, 2004, S. 11-22. (Lecture Notes in Informatics / S : Seminars Bd. LNI / S, Nr. 1) ISBN 3-88579-435-7 – Schulte, Carsten ; Brinda, Torsten: Beiträge der Objektorientierung zu einem Kompetenzmodell des informatischen Modellierens . In: Friedrich, Steffen 74 (Hrsg.) : Unterrichtskonzepte für informatische Bildung (Unterrichtskonzepte für informatische Bildung Dresden 27.-30.09.2005). Bonn : Köllen, 2005, S. 137148. (Lecture Notes in Informatics Bd. LNI, Nr. P-60) – 6.3.2 Brinda, Torsten: Teaching object-oriented modelling in secondary education . In: IFIP (Hrsg.) : 8th IFIP World Conference on Computers in Education – Conference CD (WCCE – World Conference on Computers in Education University of Stellenbosch, Cape Town, South Africa 04-07.07.2005). 2005, S. -. Didaktische Systeme der Informatik Projektleitung: Prof. Dr. Torsten Brinda Stichwörter: Didaktisches System, Aufgabenklassen, Explorationsmodule, Informatikunterricht, Objektorientiertes Modellieren Beginn: 1.4.2000 Kontakt: Prof. Dr. Torsten Brinda Tel.: +49 9131 85-27922 Fax: +49 9131 85-28809 E-Mail: [email protected] In den Jahren 2000 bis 2004 wurde ein Konzept zur didaktischen Aufbereitung fachlicher Inhalte des objektorientierten Modellierens für Informatikunterricht der Sekundarstufe II als Didaktisches System für objektorientiertes Modellieren im Informatikunterricht der Sekundarstufe II gestaltet und evaluiert. Dieses Konzept wird verfeinert und seine Übertragbarkeit auf andere Teilgebiete der Informatik untersucht. Hierbei wurden zunächst Aufgabentypen und typische Lernschwierigkeiten in den Bereich der datenorientierten Modellierung sowie der theoretischen Informatik untersucht mit dem Ziel der Gestaltung der diesbezüglichen Lehr-Lern-Prozesse sowie geeigneter Lernhilfen. Publikationen – Brinda, Torsten: Didaktische Systeme für objektorientiertes Modellieren (OOM) im Informatikunterricht . In: Gesellschaft für Informatik e.V. (Hrsg.) : Informatiktage 2000 (Informatiktage 2000 Bad Schussenried). Leinfelden-Echterdingen : Konradin, 2000, S. 282-285. 75 – Brinda, Torsten: Objektorientiertes Modellieren – Sammlung und Strukturierung von Übungsaufgaben im Informatikunterricht . In: LOG IN 20 (2000), Nr. 5, S. 39-49 – Brinda, Torsten: Didactic system for object-oriented modelling .Vortrag: eingeladene, vom dänischen Bildungsministerium geförderte, Fortbildung für dänische Informatiklehrende der Sek. II, Bjerringbro / Denmark, 08.11.2001 – Brinda, Torsten: Einfluss fachwissenschaftlicher Erkenntnisse zum objektorientierten Modellieren auf die Gestaltung von Konzepten in der Didaktik der Informatik . In: Keil-Slawik, Reinhard ; Magenheim, Johannes (Hrsg.) : Informatikunterricht und Medienbildung (GI Informatik und Schule – INFOS 2001 Paderborn 17.-20.09.2001). Bonn : Köllen, 2001, S. 75-86. (Lecture Notes in Informatics Bd. LNI, Nr. 8) – ISBN 3-88579-334-2 – Brinda, Torsten ; Ortmann, Tobias: Fallstudien zur unterrichtlichen Einbettung spezieller Aufgabenklassen . In: Schubert, Sigrid ; Magenheim, Johannes ; Hubwieser, Peter ; Brinda, Torsten (Hrsg.) : Forschungsbeiträge zur ”Didaktik der Informatik” – Theorie, Praxis, Evaluation. 1. GI-Workshop DDI’02 (Schwerpunkt: Modellierung in der informatischen Bildung) (DDI’02 Witten-Bommerholz 10.11.10.2002). 1. Aufl. Bonn : Köllen, 2002, S. 13-22. (Lecture Notes in Informatics Bd. LNI, Nr. 22) – ISBN 3-88579-351-2 – Brinda, Torsten ; Schubert, Sigrid: Learning aids and learners’ activities in the field of object-oriented modelling . In: Passey, Don ; Kendall, Mike (Hrsg.) : TelE-Learning. The Challenge for the Third Millennium (IFIP World Computer Congress 2002 – WCC2002 Montreal, Canada 25.-30.08.2002). 1. Aufl. Boston : Kluwer, 2002, S. 37-44. – ISBN 1-4020-7219-8 – Brinda, Torsten ; Schubert, Sigrid: Exploration of object-oriented models in informatics education . In: van Weert, Tom ; Munro, Robert (Hrsg.) : Informatics and The Digital Society: Social, Ethical and Cognitive Issues (SECIII 2002 Dortmund 22.-26.07.2002). 1. Aufl. Boston : Kluwer, 2003, S. 109-118. – ISBN 14020-7363-1 – Brinda, Torsten: Student experiments in object-oriented modelling . In: Cassel, Lillian N. ; Reis, Ricardo Augusto da Luz (Hrsg.) : Informatics curricula and teaching methods (ICTEM 2002 Florianopolis, Brazil 10.-12.07.2002). Boston : Kluwer, 2003, S. 13-20. – ISBN 1-4020-7266-X – Brinda, Torsten: Didaktisches System für objektorientiertes Modellieren im Informatikunterricht der Sek. II . Siegen, Universität Siegen, Diss., 2004. – 267 Seiten. 76 – Brinda, Torsten ; Hoffmann, Andreas: Entwicklung von Software zur Exploration im Bildungskontext . In: Engels, Gregor ; Seehusen, Silke (Hrsg.) : DeLFI 2004: Die e-Learning Fachtagung Informatik (DeLFI 2004 Paderborn 05.-08.09.2004). 1. Aufl. Bonn : Köllen, 2004, S. 343-354. (Lecture Notes in Informatics Bd. LNI, Nr. 52) – ISBN 3-88579-381-4 – Brinda, Torsten: Integration of new exercise classes into the Informatics education in the field of object-oriented modelling . In: Education and Information Technologies 9 (2004), Nr. 2, S. 117-130 – Brinda, Torsten: Teaching object-oriented modelling in secondary education . In: IFIP (Hrsg.) : 8th IFIP World Conference on Computers in Education – Conference CD (WCCE – World Conference on Computers in Education University of Stellenbosch, Cape Town, South Africa 04-07.07.2005). 2005, S. -. 6.3.3 FLIEG – Flexible Lehrerweiterbildung in Informatik als Erweiterungsfach für Gymnasien Projektleitung: Prof. Dr. Torsten Brinda Beteiligte: OStR Ulrich Kiesmüller Christian Götz Franz Forman Stichwörter: FLIEG, Erweiterungsfach, Lehrerweiterbildung Beginn: 1.10.2006 Förderer: Bayerisches Staatsministerium für Unterricht und Kultus Bayerisches Staatsministerium für Wissenschaft, Forschung und Kunst Europäische Kommission Kontakt: Prof. Dr. Torsten Brinda Tel.: +49 9131 85-27922 Fax: +49 9131 85-28809 E-Mail: [email protected] Beim FLIEG-Projekt handelt es sich um ein Lehrerweiterqualifikationsprojekt der Universitäten Erlangen-Nürnberg und München (TU), dessen Ziel es ist, Lehrkräfte bayerischer Gymnasien in E-Learning-Kursen innerhalb von zwei bzw. vier Jahren 77 (je nach persönlichen Umständen) auf ein Staatsexamen in Informatik (Erweiterungsprüfung) vorzubereiten. Die Qualifizierungsmaßnahme strukturiert sich in Module zu schulrelevanten Inhalten der Informatik (z. B. Datenmodellierung, Ablaufmodellierung und objektorientierte Modellierung), die überwiegend im Selbststudium anhand von vorbereiteten E-Learning-Materialien bearbeitet werden. In der 1. Hälfte der Ausbildung wird zunächst das Hintergrundwissen für den Informatikunterricht in den Jahrgangsstufen 9 und 10 vermittelt. In der 2. Hälfte erfolgt dann eine gezielte Vorbereitung auf das Staatsexamen. Zu ausgewählten Themen werden Präsenzfortbildungen zielgerichtet integriert (z. B. zum Themenbereich Theoretische Informatik). In allen Modulen werden die Kurs-Teilnehmer durch die beiden Universitäten begleitet. Alle Module werden grundsätzlich mit einer benoteten Prüfung abgeschlossen und damit zertifiziert. 6.3.4 Frühstudium – Schüler an der Universität Projektleitung: Prof. Dr. Torsten Brinda Prof. Dr. Jan-Peter Meyn Beteiligte: RSK Bernhard Wiesner Dipl.-Inf. RSL Kirsten Schlüter Stichwörter: Frühstudium, Juniorstudium, Schülerstudium, Begabtenförderung Beginn: 1.1.2006 Mitwirkende Institutionen: Didaktik der Informatik Didaktik der Physik Kontakt: Prof. Dr. Torsten Brinda Tel.: +49 9131 85-27922 Fax: +49 9131 85-28809 E-Mail: [email protected] Die Friedrich-Alexander-Universität Erlangen-Nürnberg bietet Schulen seit dem Wintersemester 2006/07 die Möglichkeit, besonders begabte und leistungsstarke Schülerinnen und Schülern der Stufen 11 bis 13 (in besonderen Fällen auch der Klasse 10) als Frühstudierende an Vorlesungen und Übungen in bestimmten Studienfächern teilnehmen und dort die entsprechenden Leistungsnachweise erwerben zu lassen. Die Leistungen werden nach Erwerb der Hochschulreife und Immatrikulation an der Universität Erlangen-Nürnberg im entsprechenden Studienfach auf Antrag anerkannt. 78 Auf diese Weise sollen motivierte Begabte gemäß ihren Interessen gefördert werden. Das Projekt hat sich bereits an verschiedenen Standorten in Deutschland als sehr erfolgreich erwiesen. Weitere Hochschulen bereiten ebenfalls entsprechende Angebote vor. Der Ministerialbeauftragte für die Gymnasien in Mittelfranken unterstützt das Projekt. Nahezu unabdingbar für eine Teilnahme ist eine positive Einstellung von Eltern und Lehrpersonen der jeweiligen Schulen zu diesem Projekt. 6.3.5 Merkmale und Dimensionen eines Kompetenzmodells der Theoretischen Informatik in der Sekundarstufe Projektleitung: Dipl.-Inf. RSL Kirsten Schlüter Beteiligte: Prof. Dr. Torsten Brinda Stichwörter: Bildungsstandards; Kompetenzmodell; Theoretische Informatik Beginn: 1.8.2006 Kontakt: Dipl.-Inf. RSL Kirsten Schlüter Tel.: +49 9131 85-27688 Fax: +49 9131 85-28809 E-Mail: [email protected] Im Vergleich zu den Kernfächern steht die Entwicklung von Kompetenzmodellen und Bildungsstandards der Informatik noch ganz am Anfang. Insbesondere liegen bisher weder theoretische Begründungen noch empirische Untersuchungen zu den Dimensionen von Kompetenzmodellen in der Informatik vor. Um dennoch Bildungsstandards in der Informatik formulieren zu können, werden pragmatische Annahmen zu Kompetenzdimensionen zugrunde gelegt. Ziel des Projekts ist die systematische Unterscheidung von Kompetenzdimensionen am Beispiel der Theoretischen Informatik in der Sekundarstufe. Ausgangspunkt ist die Klassifizierung von Aufgaben der Theoretischen Informatik, deren Kompetenzanspruch auf charakterisierende Merkmale zurückgeführt werden soll, zum Beispiel die Redundanz der Aufgabenstellung oder die Lernzielstufe, auf die die Aufgabe abzielt, etwa Roth: Reproduktion, Reorganisation, Transfer, Problemlösen. Auf der Basis der Klassifizierung sollen Hypothesen über die Dimensionen eines Kompetenzmodells als Bündel korrelierender Merkmale gewonnen werden. Die Annahmen über die Dimensionen eines Kompetenzmodells der Theoretischen Informatik sollen anhand von Aufgaben in der Sekundarstufe empirisch überprüft wer79 den. Es wird erwartet, dass Schwierigkeitsmerkmale von Aufgaben identifiziert werden können, mittels derer die Kompetenzdimensionen operationalisiert werden können, so dass ein Aufgabeninstrumentarium zur Kompetenzdiagnose entwickelt werden kann. Die Modellierung und Diagnose informatischer Kompetenz ist eine wichtige Voraussetzung für die Entwicklung von Bildungsstandards und die Evaluation des Unterrichtserfolgs. Publikationen – 6.3.6 Schlüter, Kirsten ; Brinda, Torsten: Auf dem Weg zu Bildungsstandards für Konzepte der Theoretischen Informatik in der Sekundarstufe . In: Schubert, Sigrid (Hrsg.) : Didaktik der Informatik in Theorie und Praxis (12. GI-Fachtagung Informatik und Schule – INFOS 2007; Siegen 19. – 21.09.2007). Bonn : Köllen, 2007, S. 283-294. (Lecture Note in Informatics (LNI) Bd. 112) – ISBN 978-388579-206-2 SIGNAL – Sofortprogramm Informatik am Gymnasium – Nachqualifikation von Lehrkräften (ehemals NELLI) Projektleitung: Prof. Dr. Michael Philippsen Beteiligte: Franz Forman Dr. Klaus Kreisel Dr. Hermann Puhlmann Prof. Dr. Torsten Brinda Laufzeit: 1.9.2002–31.8.2006 Förderer: Bayerisches Staatsministerium für Unterricht und Kultus Bayerisches Staatsministerium für Wissenschaft, Forschung und Kunst Europäische Kommission Kontakt: Prof. Dr. Michael Philippsen Tel.: +49 9131 85-27625 Fax: +49 9131 85-28809 E-Mail: [email protected] Deutschland will im Bereich Informationsgesellschaft einen Spitzenplatz in Europa einnehmen. Um dieses Ziel zu erreichen, müssen junge Menschen bereits in der Schule eine fundierte Ausbildung in Informatik erhalten. Konsequent führte Bayern 80 im Schuljahr 2004/05 das Pflichtfach Informatik – zunächst als Teil des Faches ”Natur und Technik” – an allen Gymnasien ein. Jedes der rund 400 bayerischen Gymnasien sollte ab diesem Zeitpunkt über mindestens eine Lehrkraft mit der Fakultas Informatik verfügen. Der immense Bedarf an Lehrkräften kann nicht über die traditionelle Lehramtsausbildung an den Universitäten gedeckt werden. Aus diesem Grund wurde im Jahr 2000 das Projekt Nelli (Netzgestützter Lehrverbund zur Lehrerausbildung in Informatik) gestartet und ein elektronisches Angebot von speziell zugeschnittenen Studien- und Unterrichtsmaterialien entwickelt. Der Lehrstuhl hat hierzu das Algorithmik-Modul beigetragen. Im September 2001 nahmen bayernweit im Rahmen von Pilotkursen 75 Lehrkräfte das Studium der Informatik auf, davon 15 in Erlangen. Im Herbst 2003 haben diese Lehrerinnnen und Lehrer die Erweiterungsprüfung in Informatik abgelegt. Der erfolgreiche Verlauf der Pilotkurse ermutigte zum Folgeprojekt SIGNAL (Sofortprogramm Informatik am Gymnasium – Nachqualifikation von Lehrkräften). In den Jahren 2002 bis 2004 startete an der Universität Erlangen-Nürnberg jeweils ein zweijähriger Kurs mit rund 25 Teilnehmern. Im ersten Kursjahr lernten die Teilnehmer überwiegend zu Hause mit elektronisch bereitgestellten Materialien. Sie gaben über einen Gruppenarbeits-Server Übungen ab, die vom Tutor des Kurses korrigiert wurden. Zum Erfahrungsaustausch und persönlichen Kontakt fanden zudem monatliche Treffen statt. Im zweiten Kursjahr fanden wöchentliche Präsenzveranstaltungen an der Universität statt. Dabei besuchten die Teilnehmer auch reguläre Veranstaltungen aus dem Angebot für das Informatikstudium. Der letzte dieser Kurse endete im Studienjahr 2005/06. 6.3.7 Vermittlung informatischer Unterrichtsinhalte der Realschule mit einem Robotersystem Projektleitung: RSK Bernhard Wiesner Beteiligte: Prof. Dr. Torsten Brinda Stichwörter: Informatikunterricht, Unterrichtskonzept, Realschule, Roboter Beginn: 1.7.2006 Kontakt: RSK Bernhard Wiesner Tel.: +49 9131 85-27688 Fax: +49 9131 85-28809 E-Mail: [email protected] 81 Informatische Unterrichtsinhalte lassen sich erfolgreicher vermitteln, wenn Anwendungsbezüge zur Erfahrungswelt und dem Interessenfeld der Lernenden geschaffen werden. Für die Realschule, die bei der Auswahl der Unterrichtsmedien und -methoden grundsätzlich Handlungsorientierung anstrebt, erscheinen Lösungen besonders wertvoll, bei denen reale Gegenstände als Medien den Lernprozess unterstützen. In diesem Zusammenhang richtet sich das Interesse auf einfache Robotersysteme, speziell auf solche, die nicht nur Eigenschaften und Verhaltensweisen realer technischer Geräte repräsentieren, sondern auch eine didaktisch gut aufbereitete Programmierumgebung mitbringen. Solche Robotersysteme werden im Bereich der allgemeinbildenden Schulen derzeit vor allem verwendet, um generell die Funktionsweisen von Robotern aufzuzeigen. Eine systematische Vermittlung von Informatikinhalten steht dabei bisher noch wenig im Blickfeld. In dem Projekt wird erforscht, welche für die Realschule geeigneten informatischen Lerninhalte sich mit einfachen Robotersystemen aus dem Hobby- und Freizeitbereich vermitteln lassen. Zu den einzelnen Lerninhalten werden jeweils Aussagen über die Eignung des Robotereinsatzes gemacht sowie Einflüsse von Randbedingungen wie Unterrichtsmethodik oder Unterrichtsorganisation untersucht. Forschungsmethodisch werden dabei neben Literaturstudien Unterrichtssequenzen entwickelt, die in Praktika und Seminaren und ggf. in Feldversuchen erprobt und ausgewertet werden. 6.3.8 Vorgehensweise von Schülerinnen und Schülern bei der Entwicklung von Algorithmen Projektleitung: OStR Ulrich Kiesmüller Beteiligte: Prof. Dr. Torsten Brinda Stichwörter: Informatikunterricht; Algorithmen; Vorgehensweisen Beginn: 1.10.2006 Kontakt: OStR Ulrich Kiesmüller Tel.: +49 9131 85-27936 Fax: +49 9131 85-28809 E-Mail: [email protected] Die Algorithmik wird im Informatikunterricht der Sekundarstufe mit verschiedenen speziellen Lern- und Programmierumgebungen gelehrt. Untersucht wird, auf 82 welche Art und Weise die Lernenden beim Erstellen von Algorithmen vorgehen. Entwickelt wurde dazu bereits eine Aufzeichnungs-Software, die in Abhängigkeit von der Zeit protokolliert, welche Schritte die Lernenden bei der Lösung einer gestellten Aufgabe mit der Programmierumgebung durchführen. Die gesammelten quantitativen empirischen Daten der Aufzeichnungs-Software wurden mit parallel dazu erhobenen qualitativen Daten (Interview, ”Laut-denken-lassen”) im Hinblick auf typische Vorgehensmuster gemeinsam ausgewertet. Durch die Verknüpfung beider Informationsmengen wurde die Grundlage für Konzeption und Entwicklung einer Diagnosekomponente der Untersuchungssoftware gelegt. In weiteren Studien wird die Praxistauglichkeit der entwickelten Softwarewerkzeuge untersucht. Außerdem wird eine möglichst feine Kategorisierung der automatisiert identifizierbaren Vorgehensweisen angestrebt. Ziel ist es, große Mengen von Daten hinsichtlich der Vorgehensweise der Lernenden zu sammeln und automatisiert auszuwerten. Weiterhin wird in die Untersuchungswerkzeuge eine Komponente zur automatisierten Bewertung der Qualität der Lösungsversuche der Lernenden integriert. Unter Berücksichtigung aller Ergebnisse können schließlich Rückschlüsse gezogen werden sowohl hinsichtlich Verbesserungsmöglichkeiten bei den verwendeten Lernumgebungen als auch der didaktischen Aufbereitung des Lehrstoffes. Die entwickelten Softwarewerkzeuge können in verschiedenen Jahrgangsstufen eingesetzt werden, so dass vergleichende Beobachtungen (Algorithmik in Jahrgangsstufen 7, 9 und 10) möglich werden. Somit sind gute Rückschlüsse auf die Vorgehensweise und Probleme der Schülerinnen und Schüler im Bereich der Erstellung von Algorithmen zu erwarten. Publikationen – Kiesmüller, Ulrich ; Brinda, Torsten: Werkzeuggestützte Untersuchung der Vorgehensweisen von Lernenden beim Lösen algorithmischer Probleme . In: Eibl, Christian ; Magenheim, Johannes ; Schubert, Sigrid ; ; Wessner, Martin (Hrsg.) : DeLFI 2007: Die 5. e-Learning Fachtagung Informatik (Die 5. e-Learning Fachtagung Informatik – DeLFI 2007 Siegen 17. – 20. September 2007). Bonn : Köllen, 2007, S. 295-296. (Lecture Notes in Informatics (LNI) Bd. 111) – ISBN 978-388579-205-5 6.4 Studien- und Abschlussarbeiten – Diplomarbeit: Aufgabentypen, Fehler und Lernhilfen im Bereich der Datenmodellierung und Datenbanksysteme Bearbeiter: Stephan Forkel (beendet am 04.08.2006) Betreuer: Prof. Dr. Torsten Brinda 83 – Staatsexamensarbeit: Fehler und Lernschwierigkeiten im Informatikanfangsunterricht zur Einführung in Fachkonzepte der Objektorientierung an der Bayerischen Realschule Bearbeiter: Anne-Kathrin Jäger (beendet am 05.10.2006) Betreuer: Prof. Dr. Torsten Brinda – Diplomarbeit: Entwicklung einer XML-basierten Testumgebung für webbasierte Lernobjekte Bearbeiter: Zeng Kun (beendet am 23.05.2007) Betreuer: Prof. Dr. Torsten Brinda – Diplomarbeit: Konzeption und Implementierung von Tracking-Software zur Untersuchung der Vorgehensweise von Schülerinnen und Schülern bei Entwurf und Bearbeitung von Algorithmen Bearbeiter: Jasmina Zlender (beendet am 20.06.2007) Betreuer: Prof. Dr. Torsten Brinda; OStR Ulrich Kiesmüller 84 7 Lehrstuhl für Informatik 3 (Rechnerarchitektur) Anschrift: Martensstr. 3, 91058 Erlangen Tel.: +49 9131 85 27003 Fax: +49 9131 85 27239 E-Mail: [email protected] Kommissarische Leitung: Prof. Dr. Michael Philippsen Wiss. Mitarbeiter: Dr.-Ing. Roman König Dipl.-Inf. Stefan Potyra Dr.-Ing. Matthias Sand Dr.-Ing. Volkmar Sieh, Akad. ORat Nichtwiss. Personal: Edwin Aures Chris Moog Joachim Stelzner Im Mittelpunkt der wissenschaftlichen Tätigkeit am Lehrstuhl 3 stehen skalierbare, verlässliche, parallele und verteilte Systeme. Einerseits werden theoretische Grundlagenprobleme sowie die Entwicklung von Berechnungsverfahren des zuverlässigen, wissenschaftlich-technischen Rechnens (Computational Engineering) und andererseits Realisierungsmöglichkeiten und Bewertungsaspekte fehlertoleranter Hochleistungsparallelrechner und eingebetteter Systeme behandelt, insbesondere die quantitative Bewertung unterschiedlicher großer Rechnerarchitekturen und großer Rechnernetze bezüglich ihrer Fehlertoleranzeigenschaften mit Hilfe von Analyse- und Simulationsmethoden (siehe beispielsweise das FAUmachine-Projekt). Im Jahre 1966 übernahm Prof. Dr. Dr. h.c. mult. Wolfgang Händler den mit der Gründung des damaligen Instituts für Mathematische Maschinen und Datenverarbeitung geschaffenen Lehrstuhl. Der Lehstuhl wurde 1989 durch Berufung von Prof. Dr. Dr. h.c. Mario Dal Cin, der zum 30. September 2005 in den Ruhestand gegangen ist, zum zweiten Mal besetzt. 7.1 Forschungsschwerpunkte • Parallele Rechnerarchitekturen und Middleware • Fehlertolerante Rechnerarchitekturen 85 • Modellierung von Rechnerarchitekturen und Fehlertoleranzmaßnahmen • Effiziente Simulation großer Rechnerarchitekturen- Effiziente Simulation von Hardware-Fehlern • Bewertung großer Rechnerarchitekturen • Bewertung von Fehlertoleranzmaßnahmen • Virtuelle Rechner und Ablaufumgebungen • Automatische Steuerung und Beobachtung von virtuellen und realen Rechnenanlagen Internationale Austauschprogramme • Im AE3-Projekt (American-European Engineering Exchange) stehen 35 US-amerikanische Partner-Universitäten für den Studentenaustausch zur Auswahl. Näheres siehe: http://www.informatik.unierlangen.de/Studies/studyabroad.shtml#AE3 • Im Rahmen des SOCRATES/ERASMUS-Programs wurden mehrere Erlanger Studenten an Partnerunivesritäten im europäischen Ausland vermittelt; im Gegenzug fanden auch einige Studenten von Partenruniversitäten denn Weg an die FAU. Näheres zum Austauschprogramm siehe: http://www.informatik.unierlangen.de/Studies/studyabroad.shtml#SOCRATES 7.2 Forschungsrelevante apparative Ausstattung Elektrologisches Labor 7.3 7.3.1 Forschungsprojekte FAUmachine Projektleitung: Dr.-Ing. Volkmar Sieh, Akad. ORat Beteiligte: Dr.-Ing. Oliver Tschäche Dipl.-Inf. Hans-Jörg Höxer Beginn: 1.1.2001 86 Kontakt: Dr.-Ing. Volkmar Sieh, Akad. ORat Tel.: +49 9131/85 27911 Fax: +49 9131/85 27239 E-Mail: [email protected] Für das DBench-Projekt (Dependability Benchmarking) wurde das FAUmachineProjekt (ehemals UMLinux) weiterentwickelt. UMLinux ist eine Portierung des Standard-Linux-Kernels auf eine virtuelle Maschine. Als virtuelle Maschine sind alle Rechner mit Unix-ähnlichem Betriebssystem denkbar. Für den Prototyp der Implementierung wurden PCs mit Linux verwendet. Das portierte Linux ist binär-kompatibel zum Standard-Linux. Damit können alle Linux-Programme und alle Linux-Distributionen auf diesen UMLinux-Rechnern laufen. Dadurch, dass es auf diese Weise möglich ist, mehrere simulierte Rechner auf einem physikalischen Host zu ,booten” und über Internet miteinander zu verbinden, können ganze Rechnernetze simuliert werden. Jeder virtuelle Knoten ist ein Prozess auf einem realen Rechner. Da Prozesse durch Debugger gut beobachtet und bei Bedarf auch gesteuert werden können, kann mit Hilfe dieser Methode das simulierte System von außen sehr gut beeinflusst werden. Dies wurde genutzt, um die virtuellen Rechner automatisch booten bzw. anhalten zu können. Außerdem können über die Debugger-Schnittstelle auch Fehler in die Systeme injiziert und deren Auswirkungen beobachtet werden. Zur Zeit sind folgende Fehlertypen implementiert: Platten-, Netzwerk-, Speicher- und Registerfehler. Damit ist es erstmalig möglich, Reaktionen selbst sehr großer Systeme auf Fehler zu beobachten. Der FAUmachine-Simulator wurde um einen Just-In-Time-Compiler (JIT) für x86Code erweitert. Der JIT ersetzt ,just in time” alle speziellen, nur im KernelMode ausführbaren Assembler-Befehle durch Simulator-Aufrufe. Alle anderen Befehle werden unverändert übernommen. Lediglich Adressen werden angepasst um den veränderten Befehlslängen gerecht zu werden. Damit ist es jetzt möglich, unmodifizierten Code ablaufen zu lassen. Lediglich der Adressraum des zu startenden Binaries muss gegebenenfalls angepasst werden. Der Einsatz von z.B. OpenBSD, FreeBSD oder auch Solaris auf FAUmachine wird damit prinzipiell möglich. Um auch Betriebssysteme auf FAUmachine einsetzen zu können, deren Source-Code nicht frei zugänglich ist (z.B. Windows), muss das Linux-Betriebssystem selbst modifiziert werden. Es muss möglich sein, den gesamten Adressraum eines x86-Prozessors (4 GB) für Benutzerprogramme verwenden zu können. Zur Zeit sind ,nur” 3 GB virtueller Adressraum verfügbar. Eine derartige Änderung des Original-Linux-Kernels ist geplant. Um den Boot-Prozess der FAUmachine mehr den echten Gegebenheiten anzupassen, wurde die Maschine um ein zusätzliches BIOS, der simulierte Prozessor um einen 87 Real-Mode erweitert. Jetzt sind nicht nur modifizierte Kernels, sondern auch modifizierte Boot-Loader (z.B. lilo, grub, syslinux usw.) lauffähig. Somit wird jetzt ohne externe Konfiguration des virtuellen Rechners die Installation einer RedHat-, SuSE oder Debian-Distribution Out-of-the-Box möglich. Zusätzlich zur effizienten Simulation von Linux-PCs können auch weitere Geräte in ihrem Verhalten nachgebildet werden. Interessant ist auch die Simulation von Benutzern. Somit ist es jetzt erstmals möglich, ganze Netze von Rechnern, Peripheriegeräten sowie mit den Geräten arbeitende Benutzer zu modellieren und diese Modelle effizient auszuwerten. Da diese simulierten Hardware-Komponenten und die Benutzer alle parallel arbeiten können, war die bisher vorhandene serielle Experimentsteuerung nicht mehr ausreichend. Sie wurde von einer auf Tcl/Tk-basierenden Lösung auf einen VHDL-Interpreter umgestellt. Der VHDL-Interpreter wurde von Grund auf neu entwickelt. Die Implementierung wird auch im folgenden Jahr weiter vervollständigt. Um die Vorteile der FAUmachine-Modellierungs- und Simulationsumgebung zu demonstrieren, wurde ein größeres Modell aufgebaut. Das Modell basiert auf dem handelsüblichen TPC-CBenchmark. Es wurde abgewandelt, um auch während des normalen Betriebs auftretende Fehler mit in die Benchmark-Ergebnisse einfließen lassen zu können. Das Modell beschreibt 6 miteinander kommunizierende Rechner, 16 serielle Terminals sowie 12 Benutzer, die an den Terminals die TPC-C-typischen Eingaben vornehmen. Publikationen – Buchacker, Kerstin ; Sieh, Volkmar: Framework for Testing the Fault-Tolerance of Systems Including OS and Network Aspects . In: IEEE (Hrsg.) : Proc. of High-Assurance SystemEngineering Symposium HASE-2001 (High-Assurance SystemEngineering Symposium HASE-2001 Boca Raton 22.-24.10.2001). 2001, S. 95-105. – Sieh, Volkmar ; Buchacker, Kerstin: Testing the Fault-Tolerance of Networked Systems . In: U. Brinkschulte ; K.-E. Grosspietsch ; C. Hochberger ; E. W. Mayr (Hrsg.) : ARCS 2002, Workshop Proceedings (International Conference on Architecture of Computing Systems ARCS 2002 Karlsruhe 08.-11.04.02). 2002, S. 3746. – ISBN 3-8007-2686-6 – Höxer, Hans-Jörg ; Sieh, Volkmar ; Buchacker, Kerstin: UMLinux – A Tool for Testing a Linux System’s Fault Tolerance . In: LinuxTag 2002 (Hrsg.) : LinuxTag 2002 (als CD erschienen) (LinuxTag 2002 Karlsruhe 06.-09.06.02). 2002, S. 1-10. – Buchacker, Kerstin ; Dal Cin, Mario ; Höxer, Hans-Jörg ; Karch, R. ; Sieh, Volkmar ; Tschäche, Oliver: Reproducible Dependability Benchmarking Experiments 88 Based on Unambiguosus Benchmark Setup Descriptions . In: IEEE Computer Society (Hrsg.) : Proceedings of the International Conference on Dependable Systems (International Conference on Dependable Systemsand Networks San Francisco, CA June 22nd – 25th). 2003, S. 469-478. – Buchacker, Kerstin ; Höxer, Hans-Jörg ; Sieh, Volkmar: UMLinux als Sandbox . In: Bundesamt für Sicherheit in der Informationstechnik/SecuMedia Verlags-GmbH (Hrsg.) : IT-Sicherheit im verteilten Chaos (8. Deutscher ITSicherheitskongress des BSI Bonn – Bad Godesberg 13.-15. Mai 2003). 2003, S. 409-423. – Höxer, Hans-Jörg: System im System . In: Linux-Magazin 12/2003 (2003), S. 8891 – Tschäche, Oliver: Dependability Benchmarking of Linux based Systems . In: n.b. (Hrsg.) : Proceedings Informatik 2003, Beiträge des Schwerpunkts Sicherheit Schutz und Zuverlässigkeit (Informatik 2003, Beiträge des Schwerpunkts Sicherheit – Schutz und Zuverlässigkeit Frankfurt 2003). 2003, S. 237-248. – Buchacker, Kerstin ; Dal Cin, Mario ; Höxer, Hans-Jörg ; Sieh, Volkmar ; Tschäche, Oliver ; Waitz, Martin: Hardware Fault Injection with UMLinux . In: n.b. (Hrsg.) : Proceedings of the 2003 International Conference on Dependable Systems and Networks (2003 International Conference on Dependable Systems and Networks San Francisco (CA) June 22-25, 2003). 2003, S. 670. – Höxer, Hans-Jörg ; Waitz, Martin ; Sieh, Volkmar: Advanced virtualization techniques for FAUmachine . In: Spenneberg, R. (Hrsg.) : Proceedings of the 11th International Linux System Technology Conference (11th International Linux System Technology Conference Erlangen, Germany September 7-10). 2004, S. 1-12. – ISBN 3-86541-058-8 – Höxer, Hans-Jörg: Virtuelle PCs und Netzwerke mit FAUmachine .Vortrag: KNFKongress ’04, Georg-Simon-Ohm-Fachhochschule, Nürnberg, 21.11.2004 – Höxer, Hans-Jörg ; Sieh, Volkmar ; Waitz, Martin: Fast Simulation of Stuck-At and Coupling Memory Faults Using FAUmachine . In: n.b. (Hrsg.) : In Supplement to Proc. HASE 2005: International Symposium on High Assurance Systems Engineering (Ninth IEEE International Symposium on High Assurance Systems Engineering Heidelberg, Germany 12-14 October 2005). 2005, S. 1-2. – Dörfler, C. ; Sieh, Volkmar: Software-Tests mit der FAUmachine . In: Czornack, J.-T. ; Stodden, D. ; Trinitis, C. ; Walter, M. (Hrsg.) : Diskussionskreis Fehlertoleranz 2005 (Diskussionskreis Fehlertoleranz 2005 München 10.-11. März 2005). Aachen : Shaker-Verlag, 2005, S. .. 89 7.4 Studien- und Abschlussarbeiten – Diplomarbeit: Szenarienanalyse auf Statechart-Modellen Bearbeiter: Mirko Kolbe (beendet am 01.02.2006) Betreuer: Dr.-Ing. Matthias Sand – Diplomarbeit: Design und Implementierung einer ACPI-Erweiterung für FAUmachine Bearbeiter: Tobias Jordan (beendet am 01.03.2006) Betreuer: Dr.-Ing. Volkmar Sieh, Akad. ORat – Studienarbeit: Design und Implementierung einer beschleunigten SVGAGrafikkarte für FAUmachine Bearbeiter: Helmar Wieland (beendet am 07.03.2006) Betreuer: Dr.-Ing. Volkmar Sieh, Akad. ORat – Diplomarbeit: Safety-Patterns: Modell-Transformation für Design-Patterns in sicherheitsrelevanten Systemen Bearbeiter: Wolfgang Rössler (beendet am 21.04.2006) Betreuer: Dr.-Ing. Matthias Sand – Diplomarbeit: Erweiterung der FAUmachine zur Unterstützung der x86-64 Plattform als Host- und Gastsystem Bearbeiter: Michael Meier (beendet am 18.05.2006) Betreuer: Dr.-Ing. Volkmar Sieh, Akad. ORat – Diplomarbeit: Design und Implementierung eines PCMCIA-Simulators für FAUmachine Bearbeiter: Matthias Körber (beendet am 14.07.2006) Betreuer: Dr.-Ing. Volkmar Sieh, Akad. ORat – Diplomarbeit: Design und Implementierung eines graphischen Editors zur Skriptgenerierung für die automatisierte Steuerung der FAUmachine Bearbeiter: Alexander Benker (beendet am 02.11.2006) Betreuer: Dr.-Ing. Volkmar Sieh, Akad. ORat – Diplomarbeit: Integration von Mechanismen zur kontinuierlichen Aufzeichnung von Bild- und Tondaten in den Simulator der FAUmachine Bearbeiter: Ernst Lang (beendet am 08.02.2007) Betreuer: Dr.-Ing. Volkmar Sieh, Akad. ORat – Diplomarbeit: Anbindung von VHDL-modellierter Hardware an den PCSimulator FAUmachine Bearbeiter: Stefan Potyra (beendet am 26.04.2007) Betreuer: Dr.-Ing. Volkmar Sieh, Akad. ORat – Studienarbeit: Implementierung und Test eines Benchmarks für das ”VolumenPro 1000” Rendering Board Bearbeiter: Daniel Michalik (beendet am 06.05.2007) Betreuer: Dr.-Ing. Volkmar Sieh, Akad. ORat – Diplomarbeit: Implementierung eines USB Gerätetreibers im User-Space zur Simulation einer SCSI Festplatte mit Fehlerinjektion Bearbeiter: Andreas Vilinski (beendet am 23.05.2007) Betreuer: 90 – Studienarbeit: Entwicklung eines graphischen Konfigurationsprogramms für FAUmachine Bearbeiter: Ronald Lembcke (beendet am 01.07.2007) Betreuer: Dr.-Ing. Volkmar Sieh, Akad. ORat – Diplomarbeit: Design und Implementierung eines Simulators für einen PCISCSI-Hostadapter auf LSI-53C810 Chipsatzbasis Bearbeiter: Helmut Wünsch (beendet am 30.07.2007) Betreuer: Dr.-Ing. Volkmar Sieh, Akad. ORat – Studienarbeit: Design und Implementierung eines CD/DVD-Brenners für FAUmachine Bearbeiter: Max Lindner (beendet am 20.08.2007) Betreuer: Dr.-Ing. Volkmar Sieh, Akad. ORat 91 8 Lehrstuhl für Informatik 4 (Verteilte Systeme und Betriebssysteme) Anschrift: Martensstraße 1, 91058 Erlangen Tel.: +49 9131 85 27277 Fax: +49 9131 85 28732 E-Mail: [email protected] Leitung: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat Emeritus: Prof. em. Dr. Fridolin Hofmann Wiss. Mitarbeiter: Dipl.-Inf. Tobias Distler Dipl.-Inf. Christoph Elsner Dipl.-Inf. Meik Felser Dipl.-Inf. Michael Gernoth Dipl.-Inf. Wanja Hofer Dr.-Ing. Rüdiger Kapitza Dr.-Ing. Jürgen Kleinöder Dipl.-Inf. Daniel Lohmann Dipl.-Inf. Martin Mitzlaff Dipl.-Inf. Fabian Scheler Julio Sincero, M. Sc. Philippe Stellwag, M. Sc. Dipl.-Inf. Michael Stilkerich Dipl.-Inf. Reinhard Tartler Dipl.-Inf. Peter Ulbrich Dipl.-Inf. Christian Wawersich Externe Doktoranden: Dipl.-Inf. Christoph Elsner Philippe Stellwag, M. Sc. Der Lehrstuhl für Informatik 4 (Verteilte Systeme und Betriebssysteme) wurde 1972 eingerichtet. Lehrstuhlinhaber von 1972 bis 2003 war Prof. Dr. Fridolin Hofmann. Im Mai 2002 wurde Prof. Dr.-Ing. Wolfgang Schröder-Preikschat zum neuen Lehrstuhlinhaber berufen. Durch die einjährige Übergangszeit in der Prof. Hofmann und Prof. Schröder-Preikschat den Lehrstuhl in kollegialer Leitung führten, konnte ein idealer Übergang ohne Beein92 trächtigung der Forschungsarbeiten und der Lehre erreicht werden. Lehre Systemprogrammierung, Betriebssysteme, Verteilte Systeme, Spezialvorlesungen aus den Bereichen Betriebssysteme, Middleware, Systementwurf, Modellierung und Leistungsbewertung, Prozessautomatisierung, Echtzeitsystem 8.1 Forschungsschwerpunkte Der Fokus der Arbeiten des Lehrstuhls lässt sich am besten mit dem Begriff Operating Systems Engineering charakterisieren. Der Begriff steht für die Kombination von Betriebssystemen und Software Engineering, vor allem für Entwurf und Entwicklung verteilter und eingebetteter Betriebssysteme. Familien-basierter Softwareentwurf in Kombination mit aspektorientierter Programmierung und Merkmalsmodellierung (Feature Modelling) bilden die Basis für die Entwicklung hochgradig problem-spezifischer Lösungen sowohl für eingebettete Laufzeit- und Betriebssysteme als auch für Middleware. Die Arbeiten umfassen auch grundlegende Fragen von Betriebssystemarchitekturen und die Entwicklung neuer, an heutige Rechner- und Anwendungsanforderungen angepasster Betriebssystemabstraktionen und -mechanismen. Daneben werden Fragen der Modellierung und Leistungsbewertung von Rechensystemen, Betriebssystemen, Verteilten Systemen und Fertigungssystemen mit analytischen, numerischen und simulativen Methoden behandelt. Adaptierbare Betriebssystemarchitekturen und Betriebssystem-Familien sind seit vielen Jahren die zentralen Themenbereiche der Arbeitsgruppe. Ziel der Forschung ist, durch die Anpassbarkeit von Betriebssystem- und Kommunikationssystemsoftware sowohl an spezielle Anforderungen der Anwendung als auch an die jeweilige Hardwarearchitektur Synergieeffekte zwischen diesen Ebenen zu ermöglichen. Ein Schwerpunkt der Lehrstuhlkompetenzen ist die Entwicklung von Methoden und Techniken zur Konstruktion der Softwareinfrastruktur für eingebette verteilte Systeme. Hierbei steht nicht eine bestimmte Betriebssystemarchitektur (wie z. B. Mikrokerne) im Mittelpunkt, sondern Verfahren und Werkzeuge, die die einfache Erzeugung einer Vielzahl verschiedener Betriebssysteme aus wiederverwendbaren, architekturunabhängigen Bausteinen (Komponenten) ermöglichen. Die Spanne des Einsatzbereichs kann von Betriebssystemen und Middleware für komplexe verteilte General-purpose Systeme bis hin zu eingebetteten, verteilten und parallelen Spezialsystemen und der Unterstützung für Echtzeit-Operationen von sicherheitskritischen Anwendungen gehen. Gruppen 93 • ergoo3 – Erlangen Research Group on Distributed Objects and Operating Systems • Ana-Gruppe4 – Analytische Modelle und Prozessautomatisierung (”Die Anas”) 8.2 Kooperationsbeziehungen • Fraunhofer-Institut für Integrierte Schaltungen (IIS) – Projektgruppe Adaptive Systemsoftware • Sun Microsystems • Siemens ADT • Siemens CT, München • EB Automotive (ehemals 3SOFT), Erlangen • pure-systems GmbH, Magdeburg • methodpark Software AG • Daimler Chrysler AG • AUDI AG • Universität Ulm, Abteilung Verteilte Systeme • Universität Passau, Lehrstuhl für Rechnerkommunikation und Rechnernetze • Duke University, Durham, North Carolina, USA • Univ. Santa Catarina, Florianopolis, Brasilien • University of Debrecen/Hungary, Institute of Informatics • Technische Universität Tiflis, Georgien Aufenthalte von Gastwissenschaftlern • Janos Roszik, (Univ. Debrecen, Ungarn) vom 1.-11. 6.2003 • Prof. Dr. Janos Sztrik (Univ. Debrecen, Ungarn) vom 25.11.-5.12.2003 • Prof. Dr. Kishor Trivedi (Duke University, NC, USA) vom 7.12-13.12 2003 • Prof. Dr. Gia Surguladze (TU Tiflis, Georgien) vom 15.11.-30.1. 2004 3 URL: 4 URL: http://www4.informatik.uni-erlangen.de/DE/Research/ergoo/ http://www4.informatik.uni-erlangen.de/DE/Research/ana/ 94 8.3 8.3.1 Forschungsprojekte AspectC++ – AOP mit C++ Beteiligte: Dipl.-Inf. Daniel Lohmann Matthias Urban Georg Blaschke Rainer Sand Reinhard Tartler Stichwörter: AOP;C++;aspektorientierte Programmierung Beginn: 1.10.2001 Kontakt: E-Mail: [email protected] AspectC++ ist eine aspektorientierte C++ Spracherweiterung. Das Ziel dieser Projekts ist neben dem Entwurf und der Definition der Sprach selbst auch die Implementierung eines AspectC++ Übersetzers. Dieser basiert auf einer Codetranformation von AspectC++ to C++. Weitere Informationen zu AspectC++ befinden sich auf der Homepage des Open Source Entwicklungsprojekts http://www.aspectc.org/ (englisch). Auf Basis von AspectC++ erfolgt die Entwicklung der aspektorientierten Betriebssystemfamilie CiAO im Rahmen des gleichnamigen Projekts. Publikationen – Spinczyk, Olaf ; Lohmann, Daniel ; Urban, Matthias: Advances in AOP with AspectC++ . In: Fujita, Hamido ; Mejri, Mohamed (Hrsg.) : New Trends in Software Methodologies Tools and Techniques (SoMeT ’05 Tokyo, Japan September 2005). Amsterdan Berlin Oxford Tokyo Washington,DC : IOS Press, 2005, S. 3353. (Frontiers in Artificial Intelligence and Applications Bd. 129) – Lohmann, Daniel ; Blaschke, Georg ; Spinczyk, Olaf: Generic Advice: On the Combination of AOP with Generative Programming in AspectC++ . In: Karsai, G. ; Visser, E. (Hrsg.) : Proceedings of the 3rd International Conference on Generative Programming and Component Engineering (GPCE ’04) (Generative Programming and Component Engineering (GPCE ’04) Vancouver, Canada October 2004). New York : Springer Verlag, 2004, S. 55-74. (Lecture Notes in Computer Science Bd. 3286) 95 – Spinczyk, Olaf ; Gal, Andreas ; Schröder-Preikschat, Wolfgang: AspectC++: An Aspect-Oriented Extension to C++ . In: – (Hrsg.) : Proc. of the 40th Intern. Conf. on Technology of Object-Oriented Languages and Systems (TOOLS Pacific 2002 Sydney, Australia Feb. 18-21, 2002). – : -, 2002, S. -. – Lohmann, Daniel ; Spinczyk, Olaf: On Typesafe Aspect Implementations in C++ . In: Gschwind, F. ; Assmann, U. ; Nierstrasz, O. (Hrsg.) : Proceedings of Software Composition 2005 (Software Composition 2005 Edingburgh, UK 04/2005). Bd. 3628. Berlin : Springer, 2005, S. 135-149. (Lecture Notes in Computer Science, Nr. 3628) – Mahrenholz, Daniel ; Spinczyk, Olaf ; Gal, Andreas ; Schröder-Preikschat, Wolfgang: An Aspect-Oriented Implementation of Interrupt Synchronization in the PURE Operating System Family . In: – (Hrsg.) : Proc. of the 5th ECOOP Workshop on Object Orientation and Operating Systems (- Malaga, Spain June 11, 2002). – : -, 2002, S. -. – ISBN 84-699-8733-X – Gal, Andreas ; Schröder-Preikschat, Wolfgang ; Spinczyk, Olaf: On AspectOrientation in Distributed Real-time Dependable Systems . In: – (Hrsg.) : Proc. of the 7th IEEE Intern. Workshop on Object-oriented Real-time Dependable Systems (WORDS 2002 San Diego, USA Jan. 7-9, 2002). – : -, 2002, S. -. – Mahrenholz, Daniel ; Spinczyk, Olaf ; Schröder-Preikschat, Wolfgang: Program Instrumentation for Debugging and Monitoring with AspectC++ . In: – (Hrsg.) : Proc. of the 5th IEEE Intern. Symp. on Object-Oriented Real-time Distributed Computing (- Washington, USA April 29-May 1, 2002). – : -, 2002, S. -. – Spinczyk, Olaf ; Lohmann, Daniel ; Urban, Matthias: AspectC++: An AOP Extension for C++ . In: Software Developer’s Journal (2005), Nr. 5, S. 68-76 – Gal, Andreas ; Schröder-Preikschat, Wolfgang ; Spinczyk, Olaf: AspectC++: Language Proposal and Prototype Implementation . In: – (Hrsg.) : – (Proc. of the OOPSLA 2001 Workshop on Advanced Separation of Concerns in Objectoriented Systems Tampa, USA Oct. 14, 2001). Tampa, Florida : -, 2001, S. -. 8.3.2 AspectIX Projektleitung: Prof. Dr.-Ing. Franz J. Hauck Prof. Dr.-Ing. Wolfgang Schröder-Preikschat Beteiligte: Dr.-Ing. Rüdiger Kapitza 96 Dipl.-Inf. Hans P. Reiser Dipl.-Inf. Andreas Schmied Stichwörter: Middleware; Fehlertoleranz; Codetransformation Laufzeit: 1.9.1997–31.3.2006 Förderer: SUN Microsystems Siemens ATD 3Soft IBM Zürich Research Lab Deutsche Forschungsgemeinschaft Autonomie; Verteilte Objekte; AspectIX ist eine Middleware-Architektur, die es Entwicklern ermöglicht, adaptierbare verteilte Anwendungen zu schreiben. Adaptierbarkeit wird auf der Basis von verteilten Objekten erreicht. Diese Objekte können sich an die Anforderungen ihrer Benutzer anpassen. Diese Anforderungen werden in Form von Aspektkonfigurationen spezifiziert. Jeder Aspekt steht für nichtfunktionale Eigenschaften des Objekts, z.B. die Aktualität von Ergebnisse oder der Grad der Fehlertoleranz. Der AspectIX Object Request Broker (ORB) wird automatisch rekonfiguriert je nachdem welche Anforderungen von den jeweiligen Objekten an den ORB gestellt werden. AspectIX basiert auf einem fragmentierten Objektmodell wie es auch in Globe5 steen/globe/ und SOS6 projects/sos/ benutzt wird. Ein fragmentiertes Objektmodell erlaubt intelligente Fragmente auf der Seite des Benutzers eines verteilten Objekts. Solche Fragmente ermöglichen es erst die Benutzeranforderungen geeignet zu implementieren. AspectIX ist dabei vollständig interoperabel zu CORBA. Aktuelle Teilprojekte Aufbauend auf der grundlegenden Middleware-Architektur wird eine sich selbstorganisierende Ablaufplattform entwickelt, die eigenständig Aufgaben der Ressourcenverwaltung, dynamischen Erzeugung, Migration und auch Partitionierung von Diensten übernehmen kann. Hierbei werden zum einen die autonome Anpassung an Last, Anwendungskontext und Hardwaregegebenheiten, zum anderen auch auch Fragen bezüglich der Sicherheit und Vertrauenswürdigkeit berücksichtigt werden. Zur Unterstützung von Fehlertoleranz wird ein Rahmenwerk für die Entwicklung von fehlertoleranten verteilten Diensten erstellt, welches mit einer adaptierbaren Replikationsschicht verschiedene Mechanismen von einfachen Master-/Slave-Techniken bis hin 5 URL: 6 URL: http://www.cs.vu.nl/~ http://www-sor.inria.fr/ 97 zu byzantinischer Fehlertoleranz bereitstellt. Dabei können die Mechanismen für einzelne Dienste bedarfsgerecht ausgewählt und auch zur Laufzeit rekonfiguriert werden. Mit flexiblen Codetransformationstechniken wird die Anwendungsentwicklung von autonomen verteilten Anwendungen unterstützt; wesentliche Forschungspunkte sind dabei die Wiederverwendbarkeit und Komponierbarkeit von Transformationsbeschreibungen. Förderung AspectIX war Teil des OVEST7 Projects/OVEST/ Projekts und wurde von der Bayerischen Forschungsstiftung und einigen Industriepartnern gefördert (SUN Microsystems, Siemens ATD, 3Soft). AspectIX wurde auch durch einen dedizierten IBM Partnership Award unterstützt. Zur Zeit wird AspectIX als DFG-Projekt finanziert. Publikationen – Reiser, Hans P. ; Hauck, Franz J. ; Kapitza, Rüdiger ; Schmied, Andreas I.: Integrating Fragmented Objects into a CORBA Environment . In: Net.ObjectDays (Hrsg.) : Net Object Days – Tagungsband (Net.ObjectDays 2003 Erfurt 22.25.09.2003). Erfurt : tranSIT GmbH, 2003, S. /. – ISBN 3-9808628-2-8 – Kapitza, Rüdiger ; Hauck, Franz J.: DLS: a CORBA service for dynamic loading of code . In: Meersmann, Robert ; Tahir, Zahir ; Schmidt, Douglas C. (Hrsg.) : On The Move to Meaningful Internet Systems 2003: CoopIS, DOA, and ODBASE (OTM Confederated International Conferences Sicily Nov 3-7, 2003). 2003, S. 1333-1350. – Reiser, Hans P. ; Martin Steckermeier ; Hauck, Franz J.: IDLflex: A flexible and generic compiler for CORBA IDL . In: Net.Object Days (Hrsg.) : Tagungsband Net.Object Days (Net.Object Days Erfurt 13.-13.10.2001). 2001, S. 151-160. ISBN 3-00-008419-3 – Hauck, Franz J. ; Becker, Ulrich ; Martin Geier ; Rastofer, Uwe ; Erich Meier ; Martin Steckermeier: AspectIX: A quality-aware object-based middleware architecture . In: Kluver (Hrsg.) : Proc. of the 3rd IFIP Int. Conf on Distrib. Appl. and Interoperable Sys. (DAIS) (3rd IFIP Int. Conf. on Distrib. Appl. and Interoperable Sys. Krakow, Polen 17.-19.10.2001). 2001, S. ?. – Hauck, Franz J. ; Meier, Erich ; Becker, Ulrich ; Geier, Martin ; Rastofer, Uwe ; Steckermeier, Martin: A middleware architecture for scalable, QoS-aware and self-organizing global services . In: Linnhoff-Popien, Claudia ; Hegering, HeinzGerd (Hrsg.) : Trends in distributed systems: towards a universal service market 7 URL: http://www4.informatik.uni-erlangen.de/ 98 (Int. IFIP/GI Working Conference, USM 2000 München 12-14.9.2000). Berlin et al. : Springer, 2000, S. 214-229. (LNCS Bd. 1890) – ISBN 3-540-41024-4 – 8.3.3 Geier, Martin ; Steckermeier, Martin ; Becker, Ulrich ; Hauck, Franz J. ; Meier, Erich ; Rastofer, Uwe: Support for mobility and replication in the AspectIX architecture . In: Demeyer, Serge ; Bosch, Jan (Hrsg.) : Object-Oriented Technology, ECOOP’98 Workshop Reader (ECOOP’98 Brüssel 20-24.7.1998). New York : Springer, 1998, S. 325-326. – ISBN 3-540-65460-7 Aspektorientierte Betriebssysteme (CiAO) Projektleitung: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat Beteiligte: Dipl.-Inf. Daniel Lohmann Dr.-Ing. Wasif Gilani, M. Sc. Dipl.-Inf. Fabian Scheler Stichwörter: Betriebssystem; AOP; Produktlinie; Merkmalsmodellierung Beginn: 1.3.2004 Förderer: Deutsche Forschungsgemeinschaft Kontakt: Dipl.-Inf. Daniel Lohmann Tel.: +49 9131 85 27904 Fax: +49 9131 85 28732 E-Mail: [email protected] Das CiAO Projekt verfolgt die Entwicklung einer feingranularen BetriebssystemProduktlinie für eingebettete und tief-eingebettete Systeme. Durch die gezielte Anwendung von Aspekttechniken soll dabei ein bislang unerreichtes Maß an Granularität und Konfigurierbarkeit möglich werden. Bei der Entwicklung von Software-Produktlinien für hochgradig anwendungsangepasste Betriebssysteme schränken querschneidende Belange (crosscutting concerns) die maximal erreichbare Modularisierbarkeit und damit auch die Anwendungsanpassbarkeit, Wiederverwendbarkeit und Wartbarkeit deutlich ein. Die aspektorientierte Programmierung (AOP) hat sich als erfolgreiche Technik für den Umgang mit querschneidenden Belangen erwiesen. Für die Forschung im Bereich der Betriebssysteme ergeben sich damit neue interessante Möglichkeiten insbesondere zur automatisierten, werkzeuggestützten 99 Maßschneiderung von Systemfunktionen bzw. -komponenten, ohne dabei Wiederverwendbarkeit aufgeben zu müssen. Im Rahmen dieses Vorhaben werden zwei Hauptziele verfolgt: • Anwendung und Evaluation von Techniken der aspektorientierten Softwareentwicklung im Kontext des Baus von Betriebssystem-Produktlinien (product lines) zur Unterstützung tief eingebetteter Anwendungen. • Untersuchung ob es mit Hilfe von diesen Techniken möglich ist, Betriebssystembausteine architekturtransparent zu entwickeln, um so aus identischem Komponentencode wahlweise z.B. ein mikrokernbasiertes oder monolithisches System generieren zu können. Publikationen – Lohmann, Daniel ; Streicher, Jochen ; Spinczyk, Olaf ; Schröder-Preikschat, Wolfgang: Interrupt Synchronization in the CiAO Operating System – Experiences from Implementing Low-Level System Policies by AOP . In: Spinczyk, Olaf ; Gibbs, Celina ; Südhold, Mario (Veranst.) : Proceedings of the 6th AOSD Workshop on Aspects, Components, and Patterns for Infrastructure Software (AOSD-ACP4IS ’07) (The 6th AOSD Workshop on Aspects, Components, and Patterns for Infrastructure Software (AOSD-ACP4IS ’07) Vancouver 03/2007). New York : ACM Press (Digital Library), 2007, S. -. – ISBN 978-1-59593-657-8 – Lohmann, Daniel ; Spinczyk, Olaf ; Schröder-Preikschat, Wolfgang: Lean and Efficient System Software Product Lines: Where Aspects Beat Objects . In: Rashid, A. ; Aksit, M. (Bearb.): Transactions on Aspect-Oriented Software Development. Bd. II. Berlin Heidelberg : Springer-Verlag, 2006, (Lecture Notes in Computer Science, Nr. 4242), S. 227-255. – ISBN 978-3-540-32972-5 – Lohmann, Daniel ; Scheler, Fabian ; Tartler, Reinhard ; Spinczyk, Olaf ; SchröderPreikschat, Wolfgang: A Quantitative Analysis of Aspects in the eCOS Kernel . In: European Chapter of ACM SIGOPS (Veranst.) : Proceedings of the EuroSys 2006 Conference (EuroSys 2006 Leuven, Belgium April 18-21, 2006). Belgium : ACM Press, 2006, S. 191-204. – ISBN 1-59593-322-0 – Lohmann, Daniel ; Spinczyk, Olaf ; Schröder-Preikschat, Wolfgang: On the Configuration of Non-Functional Properties in Operating System Product Lines . In: Coady, Yvonne ; Eide, Eric ; Lorenz, David H. ; Spinczyk, Olaf (Hrsg.) : Proceedings of the 4th AOSD Workshop on Aspects, Components and Patterns for Infrastructure Software (AOSD-ACP4IS ’05) (The 4th AOSD Workshop on 100 Aspects, Components, and Patterns for Infrastructure Software (ACP4IS) Chicago 14.03.2005). Boston : Northeastern University, 2005, S. 19-25. (NU-CCIS-0503) – Spinczyk, Olaf ; Lohmann, Daniel: Using AOP to Develop Architecture-Neutral Operating System Components . In: ACM SIGOPS (Veranst.) : Proceedings of the 11th ACM SIGOPS European Workshop (SIGOPS-EW ’04) (11th ACM SIGOPS Eurpean Workshop Leuven, Belgium Sep. 2004). New York : ACM Press, 2004, S. 188-192. – Lohmann, Daniel ; Spinczyk, Olaf: Architecture-Neutral Operating System Components . In: ACM SIGOPS (Veranst.) : SOSP ’03: Work-in-Progress Session (19th ACM Symposium on Operating Systems Principles (SOSP ’03) Bolton Landing, NY, USA 19.-22.10.2003). 2003, S. -. – Schröder-Preikschat, Wolfgang ; Lohmann, Daniel ; Gilani, Wasif ; Scheler, Fabian ; Spinczyk, Olaf: Static and dynamic weaving in System Software with AspectC++ . In: Coady, Yvonne ; Gray, Jeff ; Klefstad, Raymond (Hrsg.) : Proceeding of the 39th Hawaii International Conference on System Sciences (HICSS-39) (Mini-Track on Adaptive and Evolvable Software Systems Hawaii January 2006). Washington : IEEE Press, 2006, S. 214a. (System Sciences Bd. 9) – ISBN 0-76952507-5 (doi>10.1109/HICSS.2006.437) – Lohmann, Daniel ; Schröder-Preikschat, Wolfgang ; Spinczyk, Olaf: The design of application-tailorable operating system product lines . In: Barthe, Gilles ; Gregoire, Benjamin ; Huisman, Marieke ; Lanet, Jean-Louis (Hrsg.) : Proceedings of the International Workshop on Construction and Analysis of Safe, Secure and Interoperable Smart Devices (CASSIS ’05 Nice, France March 2005). Berlin Heidelberg : Springer-Verlag, 2006, S. 99-117. (Lecture Notes of Computer Science Bd. 3956) – ISBN 3-540-33689-3 – Lohmann, Daniel ; Schröder-Preikschat, Wolfgang ; Spinczyk, Olaf: Functional and Non-Functional Properties in a Family of Embedded Operating Systems . In: Tsai, Wei-Tek ; Banatre, Jean-Pierre ; Kikuno, Tohru (Veranst.) : Proceedings of the 10th IEEE International Workshop on Object-oriented Real-time Dependable Systems (10th IEEE International Workshop on Object-oriented Real-time Dependable Systems Sedona, Arizona, USA 2.-4.2.2005). Sedona : IEEE Press, 2005, S. 413-421. – Lohmann, Daniel ; Schröder-Preikschat, Wolfgang ; Spinczyk, Olaf: On the Design and Development of a Customizable Embedded Operating System . In: Becker, Leandro Buss ; Kaiser, Jörg (Veranst.) : In Proceedings of the International 101 Workshop on Dependable Embedded Systems (23rd Symposium on Reliable Distributed Systems (SRDS 2004) Florianopolis, Brazil October 2004). 2004, S. 1-6. – Lohmann, Daniel ; Gilani, Wasif ; Spinczyk, Olaf: On Adapable Aspect-Oriented Operating Systems . In: Gal, Andreas ; Schöttner, Michael ; Spinczyk, Olaf (Hrsg.) : Proceedings of the 2004 ECOOP Workshop on Programming Languages and Operating Systems (ECOOP-PLOS 2004) (2004 ECOOP Workshop on Programming Languages and Operating Systems (ECOOP-PLOS 2004) Olso, Norway 15.7.2004). 2004, S. 1-5. – Lohmann, Daniel ; Scheler, Fabian ; Schröder-Preikschat, Wolfgang ; Spinczyk, Olaf: PURE Embedded Operating Systems – CiAO . In: IEEE (Hrsg.) : Proceedings of the International Workshop on Operating System Platforms for Embedded Real-Time Applications (OSPERT 2006 Dresden, Germany July 4, 2006). 2006, S. -. 8.3.4 CoSa – Komponententechnologie für sicherheitskritische eingebettete Systeme Projektleitung: Dr.-Ing. Michael Golm, Siemens CT Beteiligte: Dipl.-Inf. Peter Ulbrich Stichwörter: sicherheitskritische Systeme, eingebettete Systeme, Komponentenarchitekturen, komponentenbasierte Softwareentwicklung Laufzeit: 1.7.2007–30.6.2010 Mitwirkende Institutionen: Siemens Corporate Technology Kontakt: Dipl.-Inf. Peter Ulbrich Tel.: +49 9131 85 27906 Fax: +49 9131 85 28732 E-Mail: [email protected] Motivation Komponentenarchitekturen werden bereits seit einigen Jahren sehr erfolgreich in der Softwareentwicklung verwendet. Ihr Einsatz im Bereich der eingebetteten Systeme ist aber nach wie vor unüblich. Ein Grund hierfür ist unter anderem die begrenzte Ausdruckskraft vorhandener Komponentennmodelle. 102 Forschungsziele und Fragestellungen Das Ziel des CoSa Projekts ist die Entwicklung eines Komponentenmodels für den Einsatz in sicherheitskritischen eingebetteten Systemen. Wichtige Fragestellungen sind dabei: • Wie kann eine integrale Modellung sowohl funktionaler als auch nichtfunktionaler Eigenschaften unterstützt werden? • Wie kann eine modellbasierte Analyse sicherheitskritsicher Eigenschaften erfolgen? • Wie können die möglichen Effekte einer Wiederverwendung von Black-BoxKomponenten im Hinblick auf die Sicherheit bestimmt werden? 8.3.5 D2AL Projektleitung: Dr.-Ing. Ulrich Becker Beteiligte: Dr.-Ing. Jürgen Kleinöder Prof. Dr.-Ing. Franz J. Hauck Stichwörter: Verteilungskonfiguration; verteilte Anwendungen; Migration; UML Beginn: 1.1.1998 Im Projekt D2AL wird ein Ansatz zur Entwicklung verteilter objektorientierter Anwendungen entwickelt. Ein wichtiger Aspekt bei verteilten Anwendung ist die konkrete Verteilung, d.h. die Zuordnung von Objekten zu Ablauforten: Die konkrete Verteilung hat wesentlichen Einfluss auf Anwendungseigenschaften wie Performanz und Ausfallsicherheit. Der im Projekt verfolgte Ansatz ermöglicht es dem Software-Entwickler, die erforderliche Verteilung explizit mit der Verteilungskonfigurationssprache D2AL zu spezifizieren. Die Beschreibung der Verteilung erfolgt separat vom Quellcode der Anwendung, so dass eine Änderung der Verteilung ohne Eingriff in den Quellcode möglich ist und die Implementierung weitgehend frei von verteilungsspezifischem Code bleibt. Des weiteren ermöglicht D2AL die Formulierung der Verteilungsanforderungen auf abstrakter Ebene: Unter Bezugnahme auf das UML-Modell der Anwendung beschreibt der Entwickler, welche grundsätzlichen Einschränkungen bezüglich der Platzierbarkeit von Objekten existieren, und welche Objekte gemeinsam platziert werden sollten. 103 Die Umsetzung erfolgt durch eine Kombination von Präprozessor und Laufzeitsystem: Ein Präprozessor nimmt eine Instrumentierung des Quellcodes vor, durch den verteilungsrelvante Ereignisse abgefangen und an das Laufzeitsystem weitergereicht werden. Das Laufzeitsystem ermittelt eine konkrete Verteilung und setzt diese in entsprechende Migrationsanweisungen um. Publikationen – Becker, Ulrich ; Hauck, Franz J.: D2 AL: A design-based aspect language for distribution control . In: Demeyer, Serge ; Bosch, Jan (Hrsg.) : Object-Oriented Technology, ECOOP’98 Workshop Reader (ECOOP’98 Brüssel 20-24.7.1998). New York : Springer, 1998, S. 420-421. (LNCS Bd. 1543) – ISBN 3-540-65460-7 – Becker, Ulrich: Nauru: A concept for the management of object distribution . Erlangen : FAU. 2002 (TR-I4-02-01). – Interner Bericht. 19 Seiten 8.3.6 Das JX Betriebssystem Projektleitung: Dr.-Ing. Jürgen Kleinöder Beteiligte: Dipl.-Inf. Christian Wawersich Dipl.-Inf. Meik Felser Dr.-Ing. Michael Golm Stichwörter: Java, Betriebsystem, OS, operating system, components, objektorientiert, typesafe, typsicher Beginn: 1.1.1999 Kontakt: Dr.-Ing. Jürgen Kleinöder Tel.: +49 9131 85-28028 Fax: +49 9131 85-28732 E-Mail: [email protected] JX ist ein, auf Flexibilität und Robustheit ausgerichtetes, Java-Betriebssystem. In der JX Architektur sind Anwendungen in gekapselte Domains gegliedert, die Javacode ausführen und für grundlegende Systemdienste auf den JX Kern zurückgreifen können. Der Kern ist für den Systemstart, Kontextwechsel und grundlegendes Domainmanagement verantwortlich. Der Javacode ist in Komponenten organisiert, welche in 104 die Domains geladen und, nach einer Überprüfung durch den Bytecode Verifier, in Maschinencode übersetzt werden. In den bekannten Betriebssystemen, ebenso wie in den traditionellen Mikrokernsystemen, basiert der Schutz einzelner Komponenten (Prozesse) auf separaten Adressräumen, welche von einer MMU bereitgestellt werden. In JX basiert der Schutz auf der Typsicherheit des Java-Bytecodes. Aktuelle Teilprojekte Ausgehend von JX soll eine Java Laufzeitumgebung entwickelt werden, welche harte Echtzeitanforderungen erfüllt. Dabei werden besonders die dynamischen Aspekte der Sprache Java berücksichtigt, die eine Vorhersage von zeitlichen Abläufe erschwären bzw. unmöglich machen. Aufbauend auf der flexiblen Architektur von JX soll ein Rahmenwerk zur Unterstützung von verteilten Systemen aus ressourcenbeschränkten Knoten erstellt werden. Besondere Beachtung fällt dabei auf die Integration von Knoten unterschiedlicher Größe und Architektur in das System. Schränken die vorhandenen Ressourcen die Funktionalität eines Knoten ein, so sollen Kooperationen mit größeren Knoten Abhilfe schaffen. Dieses Konzept soll sowohl für Anwendungen als auch für Betriebssystemdienste angewendet werden. Publikationen – Golm, Michael ; Felser, Meik ; Wawersich, Christian ; Kleinöder, Jürgen: The JX Operating System . In: USENIX Association (Hrsg.) : General Track 2002 USENIX Annual Technical Conference (2002 USENIX Annual Technical Conference Monterey, CA 10-15 June 2002). 1. Aufl. 2002, S. 45-58. – ISBN 1-880446-00-6 – Golm, Michael ; Bellosa, Frank ; Kleinöder, Jürgen: Beyond Address Spaces Flexibility, Performance, Protection, and Resource Management in the Type-Safe JX Operating System . In: Hotos (Hrsg.) : HotOS 2001 (The 8th Workshop on Hot Topics in Operating Systems Elmau/Oberbayern, Germany 20-23 May 2001). 2001, S. xxx. – Golm, Michael ; Wawersich, Christian ; Felser, Meik ; Kleinöder, Jürgen: Understanding the Performance of the Java Operating System JX using Visualization Techniques . In: ACM (Hrsg.) : Proceedings of the Joint ACM Java Grande – ISCOPE 2002 Conference (JGI 02 Seattle, WA 3-5. 11. 2002). New York : ACM Press, 2002, S. 230. – ISBN 1-58113-599-8 – Felser, Meik ; Golm, Michael ; Wawersich, Christian ; Kleinöder, Jürgen: Execution Time Limitation of Interrupt Handlers in a Java Operating System . In: ACM 105 (Hrsg.) : Tenth ACM SIGOPS European Workshop (Tenth ACM SIGOPS European Workshop Saint-Emilion, France 22-25 Sept. 2002). 2002, S. 190 – 193. – Wawersich, Christian ; Felser, Meik ; Golm, Michael ; Kleinöder, Jürgen: The Role of IPC in the Component-Based Operating System JX . In: Gutierrez, Dario ; Spinczyk, Olaf ; Gal, Andreas ; Paniti, Netinant (Hrsg.) : Proceedings of the 5th ECOOP Workshop on Object-Orientation and Operating Systems (The 5th ECOOP Workshop on Object-Orientation and Operating Systems Malaga 11 Juni 2002). 1. Aufl. Malaga, Spain : SERVITEC, 2002, S. pp. 43-48. – ISBN 84-6998733-X – Golm, Michael ; Felser, Meik ; Wawersich, Christian ; Kleinöder, Jürgen: A Java Operating System as the Foundation of a Secure Network Operating System . Erlangen : FAU. 2002 (TR-I4-02-05). – Interner Bericht – Golm, Michael ; Wawersich, Christian ; Felser, Meik ; Kleinöder, Jürgen: ActiveStorage: A Storage Server with Mobile Code Engine . Erlangen : Universität Erlangen-Nürnberg. 2001 (TR-I4-01-02). – Interner Bericht. 3 Seiten – Golm, Michael ; Kleinöder, Jürgen: Ubiquitous Computing and the Need for a New Operating System Architecture . Erlangen : Universiät Erlangen-Nürnberg. 2001 (TR-I4-01-09). – Interner Bericht. 4 Seiten – Wawersich, Christian ; Felser, Meik ; Kleinöder, Jürgen: On Objectifying Untyped Memory in Java Operating Systems . Irvine : University of California. 2004 (TR-ICS-04-22). – Diskussionspapier. 4 Seiten (Proceedings of the First ECOOP Workshop on Programming Languages and Operating Systems) 8.3.7 FAME-DBMS – Methoden und Werkzeuge zum Bau feingranular konfigurierbarer Datenbankfamilien für Anwendungen im Bereich eingebetteter Systeme Beteiligte: Julio Sincero, M. Sc. Dipl.-Inf. Daniel Lohmann Stichwörter: Datenbanken;Produktlinien;Eingebettete Sdots Laufzeit: 1.4.2006–1.4.2008 Förderer: Deutsche Forschungsgemeinschaft Mitwirkende Institutionen: Otto-von-Guericke-Universität Magdeburg, Arbeitsgruppe Datenbanken 106 Eingebettete Rechensysteme benötigen häufig Infrastruktursoftware zur Datenhaltung, die vieles mit klassischen Datenhaltungssysteme (DBMS) gemein hat. Allerdings verhindern die Heterogenität der Hardware, die teilweise extremen Ressourcenbeschränkungen (z.B. 8-Bit Technik) und die unterschiedlichen Anforderungen der häufig sehr speziellen Anwendungsprogramme den Einsatz von Standardlösungen. Die Entwickler reagieren auf dieses Problem in der Regel mit Eigenentwicklungen, so dass das Rad sprichwörtlich immer wieder neu erfunden wird. Das Ziel dieses Vorhabens ist es, Methoden und Werkzeuge zu evaluieren und zu verfeinern, die für den Bau anwendungsspezifisch konfigurierbarer DBMS zielführend sind. Derartige Techniken könnten durch Wiederverwendung Entwicklungskosten reduzieren, ohne auf der anderen Seite die Hardwarekosten zu erhöhen. Neben der Konstruktion von DBMS Familien soll dabei auch die Analyse von Anwendungen betrachtet werden, um so den Aufwand für die Konfigurierung der passenden DBMS Variante durch Automatisierung zu minimieren. Publikationen – Lohmann, Daniel ; Spinczyk, Olaf ; Schröder-Preikschat, Wolfgang: Lean and Efficient System Software Product Lines: Where Aspects Beat Objects . In: Rashid, A. ; Aksit, M. (Bearb.): Transactions on Aspect-Oriented Software Development. Bd. II. Berlin Heidelberg : Springer-Verlag, 2006, (Lecture Notes in Computer Science, Nr. 4242), S. 227-255. – ISBN 978-3-540-32972-5 – Sincero, Julio ; Spinczyk, Olaf ; Schröder-Preikschat, Wolfgang: On the Configuration of Non-Functional Properties in Software Product Lines . In: Lee, Jaejoon ; John, Isabel ; Aoki, Toshiaki ; Mcgregor, John D. (Veranst.) : Proceedings of the 11th International Software Product Line Conference, The Second Volume (SPLC 2007) (11th International Software Product Line Conference, Doctoral Symposium Kyoto, Japan 10.08.2007). Tokio, Japan : Kindai Kagaku Sha Co. Ltd., 2007, S. 167-173. – ISBN 978-4-7649-0342-5 – Lohmann, Daniel ; Spinczyk, Olaf: Developing embedded software product lines with AspectC++ . In: ACM SIGPLAN (Veranst.) : OOPSLA ’06: Companion to the 21st ACM SIGPLAN conference on Object-oriented programming languages, systems, and applications (Conference on Object Oriented Programming Systems Languages and Applications Portland, Oregon, USA). New York : ACM Press, 2006, S. 740–742. – ISBN 1-59593-491-X – Gilani, Wasif ; Scheler, Fabian ; Lohmann, Daniel ; Spinczyk, Olaf ; SchröderPreikschat, Wolfgang: Unification of Static and Dynamic AOP for Evolution in 107 Embedded Software Systems . In: Springer (Hrsg.) : Proceeding of 6th International Symposium on Software Composition (6th International Symposium on Software Composition Braga,Portugal 03.2007). 2007, S. -. – 8.3.8 Schröder-Preikschat, Wolfgang ; Lohmann, Daniel ; Gilani, Wasif ; Scheler, Fabian ; Spinczyk, Olaf: Static and dynamic weaving in System Software with AspectC++ . In: Coady, Yvonne ; Gray, Jeff ; Klefstad, Raymond (Hrsg.) : Proceeding of the 39th Hawaii International Conference on System Sciences (HICSS-39) (Mini-Track on Adaptive and Evolvable Software Systems Hawaii January 2006). Washington : IEEE Press, 2006, S. 214a. (System Sciences Bd. 9) – ISBN 0-76952507-5 (doi>10.1109/HICSS.2006.437) KESO – Eine Java-Laufzeitumgebung für tief eingebettete Systeme Projektleitung: Dipl.-Inf. Christian Wawersich Beteiligte: Dipl.-Inf. Michael Stilkerich Stichwörter: Java, OSEK/VDX Beginn: 11.7.2005 Kontakt: Dipl.-Inf. Christian Wawersich Tel.: +49 9131 85-28029 Fax: +49 9131 85-28732 E-Mail: [email protected] KESO ist ein Java Laufzeitumgebung für tief eingebettete Systeme und Mikrokontroller-Netzwerke. Es baut auf einem OSEK/VDX Betriebssystem auf. KESO bietet ein Prozesskonzept zur Isolation mehrerer Anwendungen. Die Einheit zur Isolation wird in KESO als Domain bezeichnet und erlaubt die sichere Koexistenz von mehreren Anwendungen auf einem Mikrokontroller. Zur Kommunikation zwischen Domains bietet die Laufzeitumgebung sowohl einen RPC ähnlichen Mechanimus als auch die Möglichkeit zur gemeinsamen Nutzung von Speicherbereichen. Publikationen – Wawersich, Christian ; Stilkerich, Michael ; Schröder-Preikschat, Wolfgang: An OSEK/VDX-based Multi-JVM for Automotive Appliances . In: Springer Boston 108 (Hrsg.) : Embedded System Design: Topics, Techniques and Trends (International Embedded Systems Symposium 2007 Irvine, CA , USA 29.05.2007). Boston : Springer Boston, 2007, S. 85-96. (IFIP International Federation for Information Processing) – ISBN 978-0-387-72257-3 (doi>10.1007/978-0-387-72258-0 8) – Wawersich, Christian ; Stilkerich, Michael ; Ellner, Ralf ; Schröder-Preikschat, Wolfgang: A Distributed Middleware for Automotive Applications . In: Di Natale, Marco ; Almeida, Luis (Hrsg.) : Proceedings of the 1st Workshop on Models and Analysis for Automotive Systems (1st Workshop on Models and Analysis for Automotive Systems Rio de Janeiro 05.12.2006). Bd. 1, 1. Aufl. 2006, S. 25-28. – Stilkerich, Michael ; Wawersich, Christian ; Schröder-Preikschat, Wolfgang ; Gal, Andreas ; Franz, Michael: An OSEK/VDX API for Java . In: ACM (Hrsg.) : Proceedings of the 3rd Workshop on Programming Languages and Operating Systems (ASPLOS XII San Jose 22.10.2006). New York : ACM, 2006, S. 13-17. ISBN 1-59593-577-0 (doi>10.1145/1215995.1215999) – Wawersich, Christian: Software-basierter Speicherschutz durch spezialisierte Java-VMs auf Microcontrollersystemen . Erlangen : Friedrich-Alexander Universität Erlangen-Nürnberg. 2005. – Interner Bericht 8.3.9 Moduswechsel hybrider Echtzeitsysteme Projektleitung: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat Beteiligte: Mitzlaff, Martin Stichwörter: FlexRay; Echtzeitsysteme; Moduswechsel Laufzeit: 1.11.2006–31.10.2009 Förderer: Audi AG Mitwirkende Institutionen: INI.FAU Kontakt: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat Tel.: +49 9131 85-27278 Fax: +49 9131 85-28732 E-Mail: [email protected] 109 Mit der teilweisen Ablösung des ereignisgesteuerten CAN durch zeitgesteuerte FlexRay-Subsysteme werden künftige Automobile hybride (verteilte) Echtzeitsysteme darstellen. Dabei sehen sich die Anwendungen einem schrittweise ”von unten nach oben” verlaufenden Migrationspfad gegenübergestellt: Ereignisgesteuerte Kommunikationsabläufe sind auf zeitgesteuerte Buszugriffe abzubilden und ereignisgesteuerte Berechnungsabläufe auf zeitgesteuerte Prozessorzuteilung. Bei zeitgesteuerten Systemen wird der Ablaufplan basierend auf Vorabwissen erstellt, entkoppelt (off-line) von der Aufgabenbearbeitung bzw. den Kommunikationsvorgängen. Der Ablaufplan ist (zur Laufzeit) statisch, im Gegensatz zu ereignsgesteuerten Systemen. Dabei bilden Periodizität, (relative/absolute) Termine oder etwa die Dauer, für die eine Anwendung ein Betriebsmittel benötigt, typische maßgebliche Einplanungskriterien. Statische Ablaufpläne sind sehr auf einen Anwendungsfall hin optimiert. Bei veränderten Anforderungen ist ein Wechsel des Ablaufplans erforderlich. Dies impliziert einen Wechsel des Betriebsmodus des Gesamtsystems. Untersucht werden sollen Verfahren, die einen (periodischen, aperiodischen, sporadischen) Moduswechsel auf ausgewählten Knoten eines auf FlexRay basierenden Steuergerätenetzes im Automobil koordiniert und konsistent ablaufen lassen. Ein ganzheitlicher Ansatz soll betrachtet werden, der allgemein die zeitgesteuerte Zuteilung von Betriebsmitteln (beispielhaft: Bus- und Prozessorzeitfenster) in den Vordergrund stellt. Ein wichtiger Aspekt der Arbeiten besteht in der Erkennung von Fehlverhalten: Dass sich ein oder mehrere Steuergeräte fehlerbedingt in einen falschen Modus befinden, ist zu erkennen, anzuzeigen und ggf. automatisch zu behandeln (Selbstheilung). Wenn möglich, sollen Steuergeräte in die Lage versetzt werden, ihren falschen Betriebsmodus selbst festzustellen und im Ausnahmefall in den richtigen Betriebsmodus umzuschalten oder ein Notprogramm zu starten (fail silent). 8.3.10 MOSEL – MOdelling, Specification and Evaluation Language Projektleitung: Dr.-Ing. Gunter Bolch, Akad. Dir. Beteiligte: Dr.-Ing. Jörg Barner Prof. Dr. Khalid Begain (Univ. Glamorgan, Wales) Prof. Dr.-Ing. Helmut Herold (FH Nürnberg) Stichwörter: stochastische Modellierung; leichtgewichtige formale Methode; Performance; Zuverlässigkeit; Systementwicklung Beginn: 1.6.1996 110 Kontakt: Dr.-Ing. Jörg Barner Tel.: +49 9131 85-27292 Fax: +49 9131 85-28732 E-Mail: [email protected] MOSEL ist eine formale Sprache zur Modellierung von Systemen, die sich als Diskretes Ereignissystem (discrete event system) auffassen lassen, wie z.B. viele Kommunikationssysteme, Fertigungssysteme, in Automobile eingebettete Systeme. Die Modellbildung basiert auf den folgenden Abstraktionen: Die von uns betrachteten Systeme bestehen in der Regel aus mehreren Komponenten, die in asynchroner Weise nebeneinander ablaufen. Zur Erfüllung der gemeinsamen Aufgabe müssen die Systemkomponenten miteinander kommunizieren, was durch synchronen gemeinsamen Zustandsübergang der Kommunikationspartner erreicht wird. Ein zentrales Konzept ist die Integration von stochastischer Zeitinformation bei der Modellierung: die Verweildauern der Systemkomponenten in ihren Zuständen werden durch Zufallsvariablen beschrieben. Die Parameter der den Zufallsvariablen zugeordeneten kontinuierlichen Wahrscheinlichkeitsverteilungen werden in der MOSEL-Spezifikation angegeben. Die mit MOSEL erstellten Modelle können mit numerischen und simulativen Methoden auf ihre nichtfunktionalen, quantitativen Eigenschaften, wie z.B. Durchsatz, Ausfallwahrscheinlichkeit, zu erwartende mittlere Dienstgüte (QoS-level, performability) untersucht werden. Die Stärke von MOSEL liegt in der leicht verständlichen Syntax; die Dynamik des modellierten Systems wird durch einen Satz von Regeln in sehr kompakter und übersichtlicher Weise beschrieben. Identische Komponenten eines Systems müssen nur einmal modelliert werden, wodurch auch die kompakte Darstellung komplexerer Systeme ermöglicht wird. Die Sprache bildet das Kernstück einer Modellierungsumgebung, mit der für die erstellten Modelle in benutzerfreundlicher, unkomplizierter Weise Lösungen für unterschiedliche Sätze von Eingangsparametern berechnet werden können. Die Modellierungsumgebung beinhaltet eine Komponente, mit der sich die gewonnenen Lösungen in graphischer Form darstellen und weiterverarbeiten lassen. Seit der Veröffentlichung der Monographie ”Practical Performance Modeling. Application of the MOSEL Language” (Kluwer Academic Publishers, 443 Seiten) im Jahre 2001, in welcher die erste Version von MOSEL anhand zahlreicher Praxisbeispiele beschrieben wird, sind sowohl die Sprache als auch die zugehörige Modellierungsumgebung grundlegend überarbeitet und wesentlich erweitert worden. Im Berichtszeitraum wurde das Projekt in den folgenden Bereichen vorangetrieben: • Die Version 2.0 der Sprache und Modellierungsumgebung entstand im Rahmen 111 der Diplomarbeit von Björn Beutel (DA Beutel8 welche die Integration des PetriNetz basierten Analysewerkzeuges TimeNet9 timenet zum Ziel hatte. • Eine weitere Steigerung der Ausdrucksfähigkeit erfuhr die Sprache im Rahmen der Studienarbeit von Patrick Wüchner (SA Wüchner10 Ab der Version 2.2 von MOSEL stehen nun eine Reihe von nicht-exponentiellen Verteilungen zur Modellierung der Verweildauern des Systems in seinen Zuständen zur Verfügung. Die mit MOSEL-2.2 erstellten Modelle lassen sich mit der Simulationskomponente des Petri-Netz basierten Werkzeuges SPNP 6.111 kst/software packages.html bewerten. • Die neue MOSEL-Version wurde im Juni 2003 in einem Tutorium im Rahmen der 17. European Simulation Multiconference in Nottingham vorgestellt. • Im konzeptionellen, methodologischen Bereich konzentriert sich die Forschung von Jörg Barner auf die Entwicklung einer formal definierten Semantik, die den MOSEL Spezifikationen zugrundeliegt. Es wurde ein operationelles semantisches Modell für MOSEL mit echter Nebenläufigkeit entwickelt und gezeigt, wie das semantische Modell mit einer Klasse von zeitkontuierlichen Stochastischen Prozessen, den sogenannten Generalisierten Semi-Markov Prozessen, korreliert. Zusammen mit der an die aktuelle Sprachversion angepassten formal definierten Syntax und der erweiterten Modellierungsumgebung kann MOSEL nunmehr als vollständig formale Methode bezeichnet werden. • Aufgrund der leichtverständlichen Syntax ist MOSEL auch für Softwareentwickler interessant, die in den frühen Phasen des Systementwurfs Vorhersagen über die zu erwartenden nichtfunktionalen Eigenschaften der geplanten Systeme gewinnen möchten und mit MOSEL eine wertvolle Hilfe bei zu fällenden Designentscheidungen and die Hand bekommen. • Um zu untersuchen, inwieweit die Modellierung und Bewertung von realen Systemen möglich ist, wurden detaillierte Modelle von WLAN-Netzwerken in MOSEL modelliert, die sich mit noch vertretbarem Zeitaufwand simulativ lösen ließen. • Patrick Wüchner hat Ende 2003 eine Diplomarbeit mit dem Titel ”Performance Modeling of Mobile Networks using MOSEL-2” begonnen, die er zum Teil in der Arbeitsgruppe von Prof. Begain an der University of Glamorgan, Wales 8 URL: http://www4.informatik.uni-erlangen.de/Projects/MOSEL/Download/beutel03thesis.pdf), http://pdv.cs.tu-berlin.de/~ 10 URL: http://www4.informatik.uni-erlangen.de/Research/MOSEL/Download/wuechner03sa.pdf): 11 URL: http://www.ee.duke.edu/~ 9 URL: 112 anfertigt. Im Rahmen dieser Diplomarbeit werden auch die Sprache und Modellierungsumgebung weiterentwickelt, so ist z.B. geplant, MOSEL um Konstrukte zur Spezifikation allgemeiner Verteilungen für die Verweilzeiten zu erweitern, die von einem in die Modellierungsumgebung integrierten Präprozessor in äquivalente, aus mehreren exponentiell verteilten Phasen bestehende Ersatzdarstellung überführt werden. Dadurch können MOSEL-Modelle mit generell verteilten Verweilzeiten auch mittels numerischer Verfahren analysiert werden. Die so erweiterte MOSEL-Version soll zur Zuverlässigkeits- und Leistungsbewertung von Mobilfunksystemen der dritten und vierten Generation eingesetzt werden. Publikationen – Barner, Jörg: Performance and reliability modelling with MOSEL-2 .Vortrag: Tutorial Session, ASMTA-Track of the 17th European Simulation Multiconference: Foundations for Successful Modelling & Simulation (ESM’03)., Nottingham Trent University, Nottingham, England, 9.6.2003 – Beutel, Björn: Integration des Petrinetz-Analysators TimeNET in die Modellanalyseumgebung MOSEL . Erlangen, FAU, Dipl-Arb., 2003. – 110 Seiten. – Wüchner, Patrick: Erweiterung der Schnittstelle zwischen den Modellierungssprachen MOSEL und CSPL um Simulationskonstrukte . Erlangen, FAU, StudArb., 2003. – 97 Seiten. – Barner, Jörg ; Bolch, Gunter: MOSEL-2: Modeling, Specification and Evaluation Language, Revision 2 . In: Sanders, William (Hrsg.) : Proceedngs of the 13th International Conference on Modeling Techniques and Tools for Computer Performance Evaluation (Performance TOOLS 2003 Urbana-Champaign, Illinois, 2 – 5.9 2003). 2003, S. 222-230. – Wüchner, Patrick ; Al-Begain, Khalid ; Barner, Jörg ; Bolch, Gunter: Modelling A Single Gsm/Gprs Cell With Delay Tolerant Voice Calls Using Mosel-2 . In: United Kingdom Simulation Society (Veranst.) : Proc. UKSIM 2004 (United Kingdom Simulation Society Conference 2004 St Catherine’s College, Oxford, England 29.-31.03 2004). 2004, S. 4-18. – Bolch, Gunter ; Sztrik, Janos ; Zreikat, Aymen: Performance Modeling of Nonhomogeneous Unreliable Multi-Server Systems Using MOSEL . In: Computers and Mathematics with Applications 46 (2003), S. 293-312 113 8.3.11 Power Management Projektleitung: Prof. Dr.-Ing. Frank Bellosa Beteiligte: Dr.-Ing. Andreas Weißel Beginn: 1.1.2001 Eine Steigerung der Rechenleistung bei gleichzeitiger Miniaturisierung wird in kommenden Rechnergenerationen nur möglich sein, wenn ein sinnvoller Umgang mit den vorhandenen Energieressourcen und eine Ableitung der entstehenden Wärme gewährleistet werden kann. Der Energieverbrauch eines Rechners kann auf drei Ebenen beeinflusst werden: Verlustarme Hardwarekomponenten können den Energieverbrauch unabhängig von der eingesetzten Software reduzieren. Ferner kann das Betriebssystem die Hardwarekomponenten in dem jeweils für das Gesamtsystem optimalen Betriebsmodus fahren. Schließlich steigern verlustoptimierte Algorithmen der Daten- und Signalverarbeitung sowie energiearme Kommunikationsprotokolle die Energieeffizienz der Hardware. Die Maßnahmen der verlustoptimierten Hardware- wie auch der Algorithmen- und Protokollentwicklung zielen auf eine lokale Beeinflussung des Energieverbrauchs auf Ebene einzelner Hardware- oder Softwarekomponenten ab. Hierbei bleiben die dynamisch variierenden energiespezifischen Eigenschaften und Anforderungen der Applikationen sowie des Gesamtsystems verborgen und können daher nicht berücksichtigt werden. Einzig das Betriebssystem kennt alle strukturellen Eigenschaften der Hardware wie auch der laufenden Anwendungen. Damit werden Energiesparpotentiale ausgeschöpft, die mit Hardwaremaßnahmen allein nicht genutzt werden können. Der Schwerpunkt liegt dabei auf dem bislang wenig erforschten Gebiet der Betriebssystemstrategien zur Ermittlung, Steuerung und Optimierung des Energieverbrauchs der wesentlichen Verbraucher in einem Rechnersystem: des Prozessors, des Speichers und der Ein/Ausgabegeräte. Die entwickelten Verfahren werden mit realistischen Szenarien an mobilen Systemen, Arbeitsplatzrechnern und Servern evaluiert. Energieabrechnung und -limitierung, Temperaturregelung Grundlage für jegliche Betriebsmittelverwaltung ist eine genaue Ermittlung der Betriebsmittelnutzung. Die Ermittlung des Energieverbrauchs eines Systems oder eines einzelnen Aktivitätsträgers zur Laufzeit (ohne die Möglichkeit einer direkten Messung) basierte in bisherigen Ansätzen auf der verbrauchten Rechenzeit. Im Rahmen einer Studienarbeit (Kellner03) konnte gezeigt werden, dass moderne Prozessoren einen stark variierenden Stromverbrauch besitzen, je nachdem auf welche funktionalen Einheiten des Prozessors die ausgeführten Instruktionen zugreifen. Somit ist die verbrauchte Pro114 zessorzeit nicht mehr als Basis einer Energieabschätzung geeignet. In den Vorarbeiten konnte erstmals gezeigt werden, dass durch die Nutzung von eingebetteten Ereigniszählern eine genaue Zuordnung von Aktivität in der Hardware zu Energiequanten möglich ist. So kann jeder Rechen- und Speicheroperation eine spezifische Energiemenge zugeordnet werden. Durch die Aufsummierung der Ereignisse und der zugehörigen Energiequanten wird auf diese Art präzise und ohne aufwendige Messtechnik der Energieverbrauch eines Prozesses zur Laufzeit in extrem kurzen Intervallen gemessen. Verschiedenen Ereignissen eines Pentium 4 Prozessors werden mit Hilfe eines linearen Optimierungsmodells, das mit hochauflösenden Messungen des Stromverbrauchs einer Vielzahl von Testprogrammen parametrisiert wurde, Energiegewichte zugeordnet. Zur Laufzeit werden diese Ereignisse vom Prozessor gezählt; durch Linearkombination der gewichteten Zählerwerte wird vom Betriebssystem der Energieverbrauch des Prozessors bestimmt. Durch immer leistungsfähigere Rechensysteme bei immer höherer Integration stellt die erzeugt Temperatur bzw. Abwärme zunehmend ein Problem dar. Steigende Taktraten erhöhen die Leistungsaufnahme von Prozessoren, so dass immer leistungsfähigere und aufwändigere Kühlsysteme notwendig werden. Am Lehrstuhl wurde ein Temperaturmodell eines Prozessors mit Kühlkörper entwickelt, das die Aufnahme elektrischer Energie und die Abgabe von Wärmeenergie durch Konvektion berücksichtigt. Ausgehend vom Stromverbrauch wird die Temperatur des Prozessors bestimmt; die Konstanten des Modells wurden mit Hilfe von Testprogrammen und gemessenen Werten der Temperatursensoren des Systems ermittelt. Es konnte gezeigt werden, dass das Betriebssystem ohne direkte Messung und mit geringem Overhead zur Laufzeit den Strom- und Energieverbrauch und mit diesen Informationen die Temperatur des Prozessors ermitteln kann. Zur Bestimmung und Verwaltung des Ressourcenverbrauchs von Aktivitätsträgern in einem System wir üblicherweise auf die Abstraktion von Prozessen zurückgegriffen, die ursprünglich nur die Funktion einer isolierten Ablaufumgebung mit eigenem Adressraum wahrgenommen hatten. Allerdings eignen sich Prozesse nur bedingt als Abstraktion für einen Aktivitätsträger, der Ressourcen des Systems verbraucht: • An derselben Aktivität können mehrere Prozesse beteiligt sein. • Ein Prozess kann im Zeitablauf unterschiedlichen Aktivitäten zugeordnet werden (z.B. in der Rolle eines Diensteerbringers (Servers) für verschiedene Klienten). • Durch eine Aktivität können Ressourcen im Betriebssystemkern verbraucht werden. Beispielsweise wird der Ressourcenverbrauch beim Empfangen von Netzwerkpaketen (Rechenzeit, Speicherbedarf usw.) in modernen Betriebssystemen üblicherweise nicht der Aktivität angerechnet, der diese Pakete zugestellt werden. 115 In der Literatur existieren bereits Vorschläge für eine neue Betriebssystemabstraktion Resource Container, die eine Aktivität im System repräsentiert und der ein oder mehrere Prozesse zugeordnet werden, wobei diese Zuordnung dynamisch zur Laufzeit geändert werden kann. Im Rahmen einer Diplomarbeit (Waitz03) wurde eine Erweiterung dieses Konzepts entworfen und in einen Linux-Betriebssystemkern integriert. Diese Energy Container verwalten neben der Rechenzeit den Energieverbrauch einzelner Aktivitäten. Die Container stehen in einer hierarchischen Beziehung, die Wurzel repräsentiert dabei das gesamte System. Es besteht die Möglichkeit, den Energieverbrauch pro Zeiteinheit einzelner Aktivitätsträger im System zu limitieren. Die verfügbare Energie wird periodisch aufgefrischt; diese Zeitspanne wird als Epoche bezeichnet. Erreicht der Container eines Prozesses sein Energielimit, wird der Prozess bis zum Ende der Epoche unterbrochen. Ein Prozess kann sein verfügbares Energiekontingent beliebig unter die von ihm erzeugten Kinder-Prozesse aufteilen. Mit der Möglichkeit, den Energieverbrauch des Gesamtsystems zu beschränken, konnte eine dynamische Temperaturregelung implementiert werden. Ein vom Benutzer vorgegebenes Temperaturlimit wird vom Betriebssystem dynamisch in einen Maximal-Stromverbrauch umgerechnet, der durch Konfiguration eines entsprechenden Energielimits für den Systemcontainer erzwungen wird. Die Arbeiten wurden auf dem ”Workshop on Compilers and Operating Systems for Low Power” im September 2003 in New Orleans, Louisana, USA vorgestellt. Der Ansatz wurde dahingehend erweitert, dass Informationen zum Ressourcenverbrauch, Energie- und Temperaturschätzung sowie -limitierung, transparent über Rechnergrenzen in einem verteilten System verwaltet werden. Damit ist eine gezielte Temperaturregelung einzelner räumlicher Bereiche innerhalb eines Rechnernetzwerkes möglich. Fällt beispielsweise ein Kühlaggregat aus, so sind davon die Rechner in dessen Nähe unmittelbar betroffen. Durch Definition einer Temperaturobergrenze in diesem Bereich des Netzwerks kann eine Überhitzung der betroffenen Rechner verhindert werden. Die Ergebnisse wurden auf dem ”Workshop for Temperature Aware Computing” im Juni 2004 in München vorgestellt. Anwendungsspezifische Energieverwaltung Existierende Verfahren zum Energiesparen, die auf Betriebssystemebene implementiert sind, bewirken häufig eine Verschlechterung der Performance (z.B. Zugriffszeit einer Festplatte, deren Laufwerksmotor erst aktiviert werden muss oder reduzierte ProzessorTaktrate). Unter Performance wird hier (allgemein) die Anwendungsgeschwindigkeit, die Warte- bzw. Antwortzeit (Bedienbarkeit) bei interaktiven Anwendungen oder andere Qualitätsmaße verstanden, z.B. die Bildrate bei der Wiedergabe einer Videosequenz. Normalerweise wird versucht, eine Obergrenze für diese Geschwindigkeitseinbußen einzuhalten. Verschiedene Anwendungen (bzw. Benutzer dieser Anwendungen) 116 besitzen allerdings unterschiedliche Anforderungen an die Performance von Geräten und tolerieren u.U. wesentlich höhere Geschwindigkeitsverluste. Am Lehrstuhl wurde ein adaptiver Algorithmus für Linux implementiert, der die Betriebszustände einer Funk-Netzwertkarte (WLAN) abfragen und setzen kann. Der WLAN-Standard 802.11 sieht einen Energiesparmodus vor, der die Karte deaktiviert und periodisch mit der Basisstation synchronisiert. Diese periodischen Synchronisationen werden als ”beacons” (Barken) bezeichnet. Die Basisstation speichert eingehende Nachrichten zwischen und informiert in diesem Fall das adressierte Gerät bei der Synchronisation. Dieses verlässt daraufhin den Energiesparmodus und fordert die Nachrichten an. Abhängig von der Länge der beacon-Intervalle werden eingehende Nachrichten verzögert. Je nach Anwendung bzw. Benutzer ergeben sich unterschiedliche Geschwindigkeitsanforderungen an die Netzwerkkommunikation und damit an die beaconPeriode. Verschiedene, für mobile Geräte typische Anwendungsprofile (Webbrowser, Zugriffe auf ein NFS-Dateisystem, SSH, FTP-Transfer, Streaming von Audio- bzw. Videodaten) und deren Anforderungen an die Geschwindigkeit der Funk-Netzwerkkarte wurden identifiziert. Mit diesen Informationen wurde ein Energiesparverfahren implementiert, das zur Laufzeit abhängig von den aktiven Anwendungen das beacon-Intervall einstellt, das die höchsten Energieeinsparungen erreicht und gleichzeitig die tolerierbaren Geschwindigkeitseinbußen einhält. Die Einstellungen zu den identifizierten Anwendungsprofilen sind dabei konfigurierbar. Im Betriebssystem wird der Ressourcenverbrauch der Funk-Netzwerkkarte, die Zahl und Größe der versendeten und empfangenen Pakete, erfasst. Daraus werden verschiedene Nutzungscharakteristiken über einem Zeitfenster berechnet (Durchschnitt, Standardabweichung usw.). Typische Werte dieser Charakteristiken für die verschiedenen Anwendungsprofile werden automatisch identifiziert und zur Laufzeit mit den beobachteten Werten verglichen. Wird eine Übereinstimmung festgestellt, d.h. ein Anwendungsprofil erkannt, wird die Länge des beacon-Intervalls auf den vom Benutzer vorgesehenen, noch tolerierbaren Wert gesetzt. Es konnte gezeigt werden, dass eine zuverlässige Klassifikation des gerade aktiven Anwendungsprofils möglich ist. Damit werden Energieeinsparungen erreicht, ohne die Anforderungen des Benutzers an die Bedienbarkeit bzw. die Geschwindigkeit der Anwendung zu verletzen. Die Ergebnisse wurden auf der ”International Conference on Architecture of Computing Systems (ARCS’04)” im März 2004 in Augsburg vorgestellt. Der Ansatz wurde mit Klassifikations- und Regressionsbäumen, einem Verfahren aus dem ”Machine Learning” verfeinert und auf andere Systemkomponenten (Prozessor und Festplatte) erweitert. Das System lässt sich so trainieren, dass abhängig vom Anwendungsszenario automatisch zwischen verschiedenen spezialisierten Energiesparalgorithmen gewechselt wird. 117 Energieerfassung und -regelung von Sensorknoten Im Bereich von eingebetteten, batteriebetriebenen Systemen, wie sie beispielsweise in Sensornetzwerken zu finden sind, stellt der Energieverbrauch eine Beschränkung dar, die mehr und mehr an Bedeutung gewinnt. Im Rahmen einer Diplomarbeit (Kellner06) wurde untersucht, wie der Energieverbrauch auf Plattformen mit minimalen Ressourcen zur Laufzeit erfasst und geregelt werden kann. Anhand einer prototypischen Implementierung auf einem ”BTnode”-Sensorknoten wurden verschiedene Methoden zur zeitund ereignisbasierten Energieerfassung und energie-gewahren Rekonfiguration untersucht. Die Ergebnisse wurden auf dem ersten ”GI/ITG Workshop on Non-Functional Properties of Embedded Systems” im Rahmen der Konferenz ”on Measurement, Modeling, and Evaluation of Computer and Communication Systems” (MMB) 2006 in Nürnberg vorgestellt. Publikationen – Weißel, Andreas ; Bellosa, Frank: Process Cruise Control: Event-Driven Clock Scaling for Dynamic Power Management . In: ACM Press (Hrsg.) : Proceedings of (International Conference on Compilers, Architecture and Synthesis for Embedded Systems (CASES 2002) Grenoble 8.10.2002). 2002, S. 238-246. – Weißel, Andreas ; Beutel, Björn ; Bellosa, Frank: Cooperative I/O – A Novel I/O Semantics for Energy-Aware Applications . In: USENIX (Veranst.) : Proceedings of the (Fifth Symposium on Operating Systems Design and Implementation (OSDI ’02) Boston, MA 8.12.2002). 2002, S. 1-300. – Weißel, Andreas ; Faerber, Matthias ; Bellosa, Frank: Application Characterization for Wireless Network Power Management . In: Müller-Schloer, Christian ; Ungerer, Theo ; Bauer, Bernhard (Hrsg.) : Organic and Pervasive Computing ARCS 2004 (International Conference on Architecture of Computing Systems Augsburg 24.03.2004). 1. Aufl. Berlin : Springer, 2004, S. 231-245. (Lecture Notes in Computer Science Bd. 2981) – ISBN 3-540-21238-8 – Bellosa, Frank ; Simon Kellner ; Waitz, Martin ; Weißel, Andreas: Event-Driven Energy Accounting for Dynamic Thermal Management . In: Diana Marculescu ; J. Ramanujam (Veranst.) : Proceedings of the Fourth Workshop on Compilers and Operating Systems for Low Power (COLP’03) (Fourth Workshop on Compilers and Operating Systems for Low Power (COLP’03) New Orleans, Louisiana, USA 27.09.2003). 2003, S. 1-10. 118 – Weißel, Andreas ; Bellosa, Frank: Dynamic Thermal Management for Distributed Systems . In: Skadron, Kevin ; Stan, Mircea (Veranst.) : Proceedings of the First Workshop on Temperature-Aware Computer Systems (First Workshop on Temperature-Aware Computer Systems (TACS-1) München 20.06.2004). 2004, S. 1-11. – Weißel, Andreas ; Scherl, Holger ; Janda, Philipp ; Bellosa, Frank: Revisiting Log-Structured File Systems for Low-Power Portable Storage . In: Min, Sang Lyul (Veranst.) : Proceedings of the International Workshop on Software Support for Portable Storage (International Workshop on Software Support for Portable Storage (IWSSPS) 2005 San Francisco, CA, USA 07.03.2005). 2005, S. 15-22. – Weißel, Andreas ; Kellner, Simon: Energy-Aware Reconfiguration of Sensor Nodes . In: Schröder-Preikschat, Wolfgang (Veranst.) : Proceedings of the First GI/ITG Workshop on Non-Functional Properties of Embedded Systems (NFPES) (First GI/ITG Workshop on Non-Functional Properties of Embedded Systems (NFPES) Nürnberg 27.03.2006). Berlin : VDE Verlag GmbH, 2006, S. 69-75. – ISBN 978-3-8007-2956-2 8.3.12 Queueing Networks and Markov Chains Projektleitung: Dr.-Ing. Gunter Bolch, Akad. Dir. Beteiligte: Prof. Kishor Trivedi, Duke University Prof. Hermann de Meer, Universität Passau Dr. Stefan Greiner, DaimlerChrysler Prof. Dr. Helena Szczerbicka, Universität Hannover Dr.-Ing. Jörg Barner Stichwörter: Queueing Systems, Queueing Networks, Markov Chains, Simulation, Performance and Reliability Evaluation, Modeling, Computer Systems, Communication Systems, Manufacturing Systems Laufzeit: 1.1.2002–31.3.2006 Förderer: John Wiley & Sons Im Rahmen dieses Buchprojektes wird die 2. Auflage des Buches: ”Queueing Networks and Markov Chains – Modeling and Performance Evaluation with Computer Science Applications”, von dem inzwischen mehr als 2200 Exemplare 119 verkauft worden sind, vorbereitet. Wesentliche Neuerungen sind neben einer kompletten Überarbeitung, ein ausführliches Kapitel über Simulation und eine Aktualisierung des Toolskapitels, das jetzt neben den Tools PEPSY, SHARPE, SPNP and MOSEL jetzt auch die beiden wichtigen Simulationstools OPNET und Network-Simulator ns-2 enthält. Darüberhinaus werden neue aktuelle Anwendungen z.B. aus dem Bereich Internet, Mobilfunk, Batchsysteme und Retrialsysteme und ein Kapitel über Nicht-Markov’sche Systeme aufgenommen. Publikationen – Bolch, Gunter ; Greiner, Stefan ; de Meer, Hermann ; Trivedi, Kishor: Queueing Networks and Markov Chains – Modeling and Performance Evaluation with Computer Science Applications . 2. Aufl. Hoboken : John Wiley & Sons, 2006. – 896 Seiten. ISBN 978-0-471-56525-3 – Begain, Khalid ; Bolch, Gunter ; Herold, Helmut: Practical Performance Modeling – Application of the MOSEL Language . Boston : Kluwer Academic Publishers, 2001 (The Kluwer International Series in Engineering and Computer Science Bd. 588) . – 409 Seiten. ISBN 0-7923-7951-9 – Barner, Jörg ; Bolch, Gunter: MOSEL-2: Modeling, Specification and Evaluation Language, Revision 2 . In: Sanders, William (Hrsg.) : Proceedngs of the 13th International Conference on Modeling Techniques and Tools for Computer Performance Evaluation (Performance TOOLS 2003 Urbana-Champaign, Illinois, 2 – 5.9 2003). 2003, S. 222-230. – Bazan, Peter ; Bolch, Gunter ; German, Reinhard: WinPEPSY-QNS Performance Evaluation and Prediction System for Queueing Networks . In: Begain, Khalid und de Meer, Hermann ; Bolch, Gunter (Hrsg.) : 11th International Conference on Analytical and Stochastical Modelling Techniques and Applictions (ASMTA’04 Magdeburg 13. -16.06.04). 2004, S. 110 -115. 8.4 Studien- und Abschlussarbeiten – Studienarbeit: Entwurf und Implementierung eines Programmsystems zur Analyse und Prognose der Ergebnisse von Mannschaftsspielen am Beispiel der Fußballbundesliga Bearbeiter: Carsten Bansemir (beendet am 02.01.2006) Betreuer: Dr.-Ing. Gunter Bolch, Akad. Dir. 120 – Diplomarbeit: Operating System Support for Power Management of Mobile Robots (Entwicklung einer Infrastruktur für Energiesparverfahren) Bearbeiter: Holger Wunderlich (beendet am 02.01.2006) Betreuer: Dr.-Ing. Andreas Weißel; Prof. Dr.-Ing. Wolfgang Schröder-Preikschat – Diplomarbeit: Konzeption und prototypische Implementierung einer generischen Ablaufsteuerung für den Einsatz in J2EE-Umgebungen Bearbeiter: Nizar Kallel (beendet am 05.01.2006) Betreuer: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat; Dr.-Ing. Gunter Bolch, Akad. Dir. – Diplomarbeit: Entwurf und Implementierung eines Programmsystems zur Auswertung der Ergebnisse von Mannschaftssportarten mit Anbindung an das Internet Bearbeiter: Stefan Böhmer (beendet am 26.01.2006) Betreuer: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat; Dr.-Ing. Gunter Bolch, Akad. Dir. – Diplomarbeit: Energy Accounting & Control for Sensor Nodes (Erfassung und Regelung der Leistungsaufnahme von Sensorknoten) Bearbeiter: Simon Kellner (beendet am 31.1.2006) Betreuer: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat; Dr.-Ing. Andreas Weißel – Diplomarbeit: Konzeption und prototypische Umsetzung eines PROFINET basierten verteilten Komponentensystems zur Wegeleitung von Fahrzeugen auf Werksgeländen Bearbeiter: Rene Ermler (beendet am 28.02.2006) Betreuer: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat – Diplomarbeit: Echtzeit-Bahnsteuerung eines X/Y-Systems mittels eines Kamerasystems Bearbeiter: Markus Meyer (beendet am 20.03.2006) Betreuer: Prof. Dr.Ing. Wolfgang Schröder-Preikschat; Dipl.-Inf. Fabian Scheler – Studienarbeit: Analyse und Bewertung von Konzepten zur Anwendungsintegration für ein Hochschulinformationssystem Bearbeiter: Peter Ulbrich (beendet am 28.03.2006) Betreuer: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat; Dr.-Ing. Jürgen Kleinöder – Studienarbeit: Implizite Ermittlung von Kardinalitäten als Erweiterung des Kardinalitätenkonzepts für Merkmalmodelle Bearbeiter: Firas Affes (beendet am 31.03.2006) Betreuer: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat – Diplomarbeit: Anwendungsspezifisch ersetzbare Speicherverwaltung und Garbage Collection für die Laufzeitumgebung .NET im Umfeld industrieller Anwendungen – Architekturelle Konzeption und prototypische Realisierung Bearbeiter: Hicham Chfiri (beendet am 28.04.2006) Betreuer: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat; Dr.-Ing. Jürgen Kleinöder 121 – Diplomarbeit: Energiecharakterisierung rekonfigurierbarer Rechensysteme Bearbeiter: Thomas Hirth (beendet am 28.04.2006) Betreuer: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat; Dr.-Ing. Andreas Weißel – Studienarbeit: Portierung des Ecos-Betriebssystems auf die Robertino-Plattform Bearbeiter: Alexander Beisig (beendet am 28.04.2006) Betreuer: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat – Master Thesis: Cardinality-Based Feature Modelling of Auotmotive Software Bearbeiter: Julio Sincero (beendet am 02.05.2006) Betreuer: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat – Diplomarbeit: Entwicklung einer CAD-gestützten Ablaufsteuerung für koordinierte Montagevorgänge unter Verwendung von kooperierenden Industrierobotern Bearbeiter: Markus Michl (beendet am 12.05.2006) Betreuer: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat; Prof. Dr.-Ing. Klaus Feldmann – Diplomarbeit: Visual Debugging Support for AspectC++ Programs Bearbeiter: Rainer Sand (beendet am 12.05.2006) Betreuer: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat – Diplomarbeit: Konzeptionelle Entwicklung einer CAD-orientierten Montageplanung ind Implementierung einer Ablaufsteuerung für kooperierende Roboter Bearbeiter: Dorothee Buschhüter (beendet am 15.05.2006) Betreuer: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat; Prof. Dr.-Ing. Klaus Feldmann – Diplomarbeit: Untersuchung von Optionen zur Versorgung von Fahrzeug-ECUs mit Software über ein zukünftiges Flexray-Backbone-System Bearbeiter: Martin Mitzlaff (beendet am 02.06.2006) Betreuer: Prof. Dr.-Ing. Wolfgang SchröderPreikschat – Diplomarbeit: Design und Implementierung einer Peer-to-Peer basierten Protokollschicht zum Zustandstransfer bei aktiver Replikation Bearbeiter: Thomas Zeman (beendet am 08.06.2006) Betreuer: Prof. Dr.-Ing. Wolfgang SchröderPreikschat; Dr.-Ing. Rüdiger Kapitza – Diplomarbeit: Implementierung und Vergleich verschiedener Strategien zur Durchführung von Ethernet-Performancemessungen Bearbeiter: Michael Gernoth (beendet am 13.06.2006) Betreuer: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat; Dr.-Ing. Jürgen Kleinöder; Dr. rer. nat. Peter Holleczek – Diplomarbeit: Bereitstellung Adaptive Mobile Objekte in einer heterogenen Umgebung Bearbeiter: Guido Söldner (beendet am 10.07.2006) Betreuer: Prof. Dr.Ing. Wolfgang Schröder-Preikschat; Dr.-Ing. Rüdiger Kapitza 122 – Studienarbeit: Implementaion and evaluation of fast untyped memory in a JVM (Implementierung und Auswertung von schnellem untypisiertem Speicher in einer JVM Bearbeiter: Isabella Thomm (beendet am 15.07.2006) Betreuer: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat; Dipl.-Inf. Christian Wawersich – Diplomarbeit: An OSEK Operating System Interface and Memory Management for Java (Eine OSEK Betriebssystemschnittstelle und Speicherverwaltung für Java) Bearbeiter: Michael Stilkerich (beendet am 09.08.2006) Betreuer: Prof. Dr.Ing. Wolfgang Schröder-Preikschat; Dipl.-Inf. Christian Wawersich – Studienarbeit: Entwicklung und Implementierung einer Bauteilerkennung und positionsbestimmung mittels Laserscanner für die automatische Montage Bearbeiter: Christian Fischer (beendet am 14.08.2006) Betreuer: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat; Prof. Dr.-Ing. Klaus Feldmann – Studienarbeit: Entwicklung und Implementierung eines Bahnplaners für kooperierende Linearroboter auf Grundlage der Potentialfeldmethode Bearbeiter: Jochen Merhof (beendet am 14.08.2006) Betreuer: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat; Prof. Dr.-Ing. Klaus Feldmann – Studienarbeit: Unterbrechungsbehandlung in einer aspektorientierten Betriebssystemfamilie Bearbeiter: Jochen Streicher (beendet am 20.09.2006) Betreuer: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat; Dipl.-Inf. Daniel Lohmann – Diplomarbeit: Modelling and Intelligent Querying of Railway Monitoring Ontologies (Ontologische Modellierung im Rahmen des Railway Monitoring) Bearbeiter: Mario Kunze (beendet am 01.10.2006) Betreuer: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat; Dr.-Ing. Gunter Bolch, Akad. Dir. – Studienarbeit: Unterbrechungsbehandlung in einer aspektorientierten Betriebssystemfamilie Bearbeiter: Jochen Streicher (beendet am 02.10.2006) Betreuer: Dipl.-Inf. Daniel Lohmann – Studienarbeit: Design und Implementierung eines Betriebssystemkerns in einer typsicheren Sprache Bearbeiter: Martin Auer (beendet am 27.10.2006) Betreuer: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat; Dipl.-Inf. Meik Felser – Master Thesis: Development of a Concept to Validate a Stack Analyzer Tool and Implementation of Test Cases Bearbeiter: Satyanarayana Nanduri (beendet am 30.10.2006) Betreuer: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat; Dr.-Ing. Jürgen Kleinöder 123 – Diplomarbeit: Entwurf einer Middleware zur Unterstützung komponentenbasierender Softwaresysteme Bearbeiter: Tobias Limmer (beendet am 29.11.2006) Betreuer: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat; Dr.-Ing. Jürgen Kleinöder – Diplomarbeit: Entwicklung eines kontextgeführten, selbstlernenden Systems zur automatisierten Erstellung von Arbeitsanweisungen für die Produktion Bearbeiter: Christian Philipp (beendet am 01.12.2006) Betreuer: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat; Prof. Dr.-Ing. Klaus Feldmann; Dipl.-Ing. Stefan Lang – Diplomarbeit: Verteiltes Reasoning für kollaborierende Agenten (Distributed Reasoning for Collaborating Agents) Bearbeiter: Martin Riedl (beendet am 01.12.2006) Betreuer: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat; Dr.-Ing. Gunter Bolch, Akad. Dir. – Studienarbeit: Portierung von Redboot/ecos auf den Tricore TC1796 Mikrocontroller Bearbeiter: Rudi Pfister (beendet am 04.12.2006) Betreuer: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat; Dipl.-Inf. Fabian Scheler – Diplomarbeit: Eine familienbasierte Infrastruktur zum dynamischen Weben von Aspekten in C++ Programmen Bearbeiter: Reinhard Tartler (beendet am 11.12.2006) Betreuer: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat – Diplomarbeit: Entwicklung einer Plattform zur webbasierten Produktionsplanung in der Elektronikproduktion Bearbeiter: Yanping Li (beendet am 13.12.2006) Betreuer: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat; Prof. Dr.-Ing. Klaus Feldmann; Dipl.-Ing. Tobias Schmuck – Studienarbeit: Entwurf und Implementierung eines Fernaufrufmechanismus auf Grundlage von DWARF Debugging Informationen Bearbeiter: Sascha Wessel (beendet am 18.12.2006) Betreuer: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat; Dipl.-Inf. Meik Felser – Diplomarbeit: Modellgetriebene Softwareentwicklung für Versicherungsanwendungsarchitekturen Bearbeiter: Carsten Bansemir (beendet am 18.12.2006) Betreuer: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat; Dr.-Ing. Jürgen Kleinöder – Studienarbeit: Konzeption und Implementierung einer dezentralen und fehlertoleranten Versionsverwaltung Bearbeiter: Peter Baumann (beendet am 20.12.2006) Betreuer: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat; Dr.-Ing. Rüdiger Kapitza – Diplomarbeit: Einsatz von Webservices für Auswertungen in Excel mit Zugriff auf Daten aus SAP R/3 Bearbeiter: Sami Abidi (beendet am 22.12.2006) Betreuer: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat; Dr.-Ing. Gunter Bolch, Akad. Dir. 124 – Diplomarbeit: Konzeptionelle Entwicklung und Implementierung einer CADgestützten Montageplanung für kooperierende Industrieroboter Bearbeiter: Matthias Pleines (beendet am 08.01.2007) Betreuer: Prof. Dr.-Ing. Wolfgang SchröderPreikschat; Prof. Dr.-Ing. Klaus Feldmann – Diplomarbeit: Werkzeugunterstützung für die statische Anwendungsanalyse im Kontext von Software-Produktlinien Bearbeiter: Horst Schirmeier (beendet am 26.01.2007) Betreuer: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat – Studienarbeit: AUTOSAR I/O GUI – Eclipse-Based Visualization and Test Access to an Automotive Driver Framework Bearbeiter: Wanja Hofer (beendet am 30.01.2007) Betreuer: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat; Dr.-Ing. Jürgen Kleinöder; Dipl.-Inf. Fabian Scheler – Studienarbeit: Realisierung eines dynamischen Code-Installationssystems für AVR Mikrocontroller Bearbeiter: Benjamin Oechslein (beendet am 01.03.2007) Betreuer: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat; Dipl.-Inf. Meik Felser – Diplomarbeit: Entwicklung einer webbasierten Programmier- und Visualisierungsumgebung für eine Wickelmaschine Bearbeiter: Kun Yue (beendet am 28.03.2007) Betreuer: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat; Prof. Dr.Ing. Klaus Feldmann; Dipl.-Ing. Andreas Dobroschke – Studienarbeit: Überprüfung von Kommunikationsbeziehungen über Netzwerkgrenzen hinweg, anhand von Filterregeln Bearbeiter: Martin Gründl (beendet am 28.03.2007) Betreuer: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat; Dr. rer. nat. Peter Holleczek – Studienarbeit: Remote Method Invocation for a Distributed Middleware on heterogeneous Controllers Bearbeiter: Ralf Ellner (beendet am 30.3.2007) Betreuer: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat; Dipl.-Inf. Christian Wawersich; Dipl.-Inf. Michael Stilkerich – Studienarbeit: Konzeption und Implementierung eines dezentralen RessourcenManagement-Systems Bearbeiter: Tobias Distler (beendet am 18.04.2007) Betreuer: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat; Dr.-Ing. Rüdiger Kapitza – Diplomarbeit: Evaluierung modellgetriebener Softwareentwicklung und Konzeption eines domänenspezifischen Modells für die Parametrierung von Standardsoftware im Automobil Bearbeiter: Peter Ulbrich (beendet am 02.05.2007) Betreuer: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat; Dr.-Ing. Jürgen Kleinöder – Diplomarbeit: Untersuchung von Optimierungspotentialen beim Start einer Umgebung für dynamische Softwarekomponenten am Beispiel von Java und OSGi 125 Bearbeiter: Vladimir Nikolov (beendet am 30.05.2007) Betreuer: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat; Dr.-Ing. Jürgen Kleinöder; Dr.-Ing. Rüdiger Kapitza – Diplomarbeit: Entwicklung eines Modellierungs- und Auswertemechanismus für eine webbasierte Anwendung zur Layoutplanung von Montageanlagen Bearbeiter: Jie Shi (beendet am 04.06.2007) Betreuer: Prof. Dr.-Ing. Wolfgang SchröderPreikschat; Prof. Dr.-Ing. Klaus Feldmann; Dipl.-Ing. Matthias Brossog – Diplomarbeit: Automatische Ableitung graphischer Benutzerschnittstellen aus Steuerungsobjekten und Anzeige für die Realisierung von Mensch-MaschinenSchnittstellen für Plug&Produce-Produktionssysteme Bearbeiter: Markus Zenk (beendet am 25.06.2007) Betreuer: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat; Prof. Dr.-Ing. Klaus Feldmann – Studienarbeit: Testen von Steuergerätesoftware in der Programmiersprache CAPL durch eine CAN-Restbussimulation Bearbeiter: Claudius Adrian (beendet am 29.06.2007) Betreuer: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat; Dipl.-Inf. Daniel Lohmann – Studienarbeit: Entwicklung und Implementierung eines grafischen Konfigurationswerkzeugs für KESO Bearbeiter: Wilhelm Haas (beendet am 10.7.2007) Betreuer: Dipl.-Inf. Michael Stilkerich; Dipl.-Inf. Christian Wawersich – Studienarbeit: Erweiterung des Programmsystems TOTOWM Bearbeiter: Azeddine Ayadi (beendet am 10.07.2007) Betreuer: Prof. Dr.-Ing. Wolfgang SchröderPreikschat; Dr.-Ing. Gunter Bolch, Akad. Dir. – Studienarbeit: Implementierung und Validierung neuer Verfahren zur Performanceanalyse von Rechensystemen auf der Basis von Warteschlangennetzen Bearbeiter: Dongyu Wang (beendet am 10.07.2007) Betreuer: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat; Dr.-Ing. Gunter Bolch, Akad. Dir. – Studienarbeit: Eine verteilte, plattformunabhängige und interaktive Testumgebung für Aspect C++ Bearbeiter: Sven Schober (beendet am 20.07.2007) Betreuer: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat – Studienarbeit: Redesign und Implementierung eines Softwarepakets zur Messung der IP Performance nach OWAMP-Standard Bearbeiter: Thomas Holleczek (beendet am 27.07.2007) Betreuer: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat; Dipl.-Inf. Michael Gernoth; Dipl.-Inf. Roland Karch 126 – Diplomarbeit: Untersuchung von Denial-of-Service-Angriffsszenarien über die User-Network-Interface-Schnittstelle auf Ressourcen von Transportnetzen Bearbeiter: Mohamed Louizi (beendet am 29.07.2007) Betreuer: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat; Dr.-Ing. Gunter Bolch, Akad. Dir. – Diplomarbeit: Design of a Simulator Framework for Operating Systems and Implementation of a Prototype of AUTOSAR-OS (Entwurf eines Simulator-Frameworks für Betriebssysteme mit prototypischer Realisierung von AUTOSAR-OS) Bearbeiter: Arthur Mielimonka (beendet am 01.08.2007) Betreuer: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat; Dr.-Ing. Jürgen Kleinöder – Diplomarbeit: Konzeptionierung und Implementierung eines TelemonitoringSystems Bearbeiter: Jochen Merhof (beendet am 20.08.2007) Betreuer: Prof. Dr.Ing. Wolfgang Schröder-Preikschat; Prof. Dr.-Ing. Klaus Feldmann; Dipl.-Ing. Markus Michl – Bachelor Thesis: Einsatz von Multicore-Prozessoren in Steuerungssystemen Analyse und Skizze von Lösungsansätzen Bearbeiter: Alexander Ditter (beendet am 31.08.2007) Betreuer: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat; Dr.-Ing. Jürgen Kleinöder – Diplomarbeit: Konzeption und Implementierung einer webbasierten Prozessvisualisierung auf Basis von VRML Bearbeiter: Christian Fischer (beendet am 19.09.2007) Betreuer: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat; Prof. Dr.Ing. Klaus Feldmann; Dipl.-Ing. Markus Michl – Studienarbeit: Design of an OSEK/VDX-compatible System API for Linux Bearbeiter: Johannes Bauer (beendet am 27.09.2007) Betreuer: Dipl.-Inf. Michael Stilkerich; Dipl.-Inf. Christian Wawersich – Studienarbeit: Entwurf und Implementierung eines ttCAN-Treibers für OSEKtime/TriCore TC1796 Bearbeiter: Stefan Rehm (beendet am 28.09.2007) Betreuer: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat; Dipl.-Inf. Fabian Scheler – Diplomarbeit: Aspektorientierte Entwicklung konfigurierbarer Speicherschutzverfahren für die CiAO Betriebssystemfamilie Bearbeiter: Jochen Streicher (beendet am 29.09.2007) Betreuer: Dipl.-Inf. Daniel Lohmann – Diplomarbeit: Aspect-Oriented Design and Implementation of an AUTOSARLike Operating System Kernel Bearbeiter: Wanja Hofer (beendet am 30.10.2007) Betreuer: Dipl.-Inf. Daniel Lohmann; Prof. Dr.-Ing. Wolfgang SchröderPreikschat 127 – Diplomarbeit: System Structure and Real-Time Behavior and -Analysis and Comparison of Windows CE 5.00 and 6.00 Bearbeiter: Erik Merkel (beendet am 30.10.2007) Betreuer: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat; Dr.-Ing. Jürgen Kleinöder – Diplomarbeit: Maintenance-Optimierung durch Wissensintegration verteilter Agenten Bearbeiter: Wolfgang Ströhla (beendet am 19.11.2007) Betreuer: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat; Dr.-Ing. Gunter Bolch, Akad. Dir. – Diplomarbeit: Leistungsoptimierung von Call-Centern mithilfe von zeitabhängigen Prioritäten Bearbeiter: Norbert Maurer (beendet am 17.12.2007) Betreuer: Prof. Dr.-Ing. Wolfgang Schröder-Preikschat; Dr.-Ing. Gunter Bolch, Akad. Dir. 128 9 Lehrstuhl für Informatik 5 (Mustererkennung) Anschrift: Martensstrasse 3, 91058 Erlangen Tel.: +49 9131 85 27775 Fax: +49 9131 303811 E-Mail: [email protected] Leitung: Prof. Dr.-Ing. Joachim Hornegger Emeritus: Prof. em. Dr.-Ing. Heinrich Niemann Sekretariat: Iris Koppe Kristina Müller Leitung Rechnersehen: Prof. Elli Angelopoulou Rechnersehen: Prof. Elli Angelopoulou Dipl.-Inf. Eva Eibenberger Dipl.-Inf. Eva Kollorz Andre Guilherme Linarth, M. Sc. Dipl.-Inf. Christian Rieß Stefan Soutschek, M. Sc. Leitung Medizinische Bildverarbeitung: Dipl.-Inf. Marcus Prümmer Medizinische Bildverarbeitung: Michael Balda, M. Sc. Dipl.-Inf. Rüdiger Bock Dipl.-Inf. Anja Borsdorf Konstantin Chirkov, M. Sc. Dipl.-Inf. Volker Daum Dipl.-Inf. Johannes Feulner Andreas Fieselmann, M. Sc. Dipl.-Inf. Dieter Hahn Dipl.-Inf. Hannes Hofmann Dipl.-Ing. Kurt Höller Dipl.-Ing. (FH) Stefan Hoppe Dipl.-Inf. Florian Jäger Benjamin Keck, M. Sc. Dipl.-Inf. Markus Mayer 129 Dipl.-Inf. Jörg Meier Dipl. Med.-Inf. Jochen Penne Dipl.-Inf. Marcus Prümmer Dipl.-Phys. Philipp Ritt Dipl.-Inf. Christian Schaller Dipl.-Inf. Konrad Sickel Dipl.-Inf. Martin Spiegel Michael Stürmer, M. Sc. Dipl.-Inf. Michael Wels Dipl.-Inf. Andreas Wimmer Dipl.-Ing. Johannes Zeintl Leitung Digitaler Sport: Prof. Dr.-Ing. Joachim Hornegger Digitaler Sport: Dipl.-Ing. Björn Eskofier Leitung Sprachverarbeitung: PD Dr.-Ing. habil. Elmar Nöth, Akad. Dir. Sprachverarbeitung: Dr. phil. Anton Batliner Dr.-Ing. Tino Haderlein Dipl.-Inf. Florian Hönig Dipl.-Inf. Andreas Maier PD Dr.-Ing. habil. Elmar Nöth, Akad. Dir. Dipl.-Inf. Werner Spiegl Dipl.-Inf. Stefan Steidl Lehrbeauftragte: Dr. rer. nat. Björn Heismann Dr.-Ing. Markus Kowarschik Dipl.-Inf. Oliver Scholz Dr.-Ing. Thomas Wittenberg Nichtwiss. Personal: Walter Fentze Iris Koppe Sebastian Korschofski Kristina Müller Friedrich Popp Praktikanten: Andreas Erzigkeit Der Lehrstuhl für Mustererkennung (LME) ist Teil des Instituts für Informatik der 130 Friedrich-Alexander-Universität Erlangen-Nürnberg. Von 1975, dem Gründungsjahr des Lehrstuhls, bis September 2005 war Prof. Dr.-Ing. H. Niemann Lehrstuhlinhaber des LME. Im Oktober 2005 hat Prof. Dr.-Ing. J. Hornegger die Leitung des Lehrstuhls übernommen. Das Ziel der Mustererkennung ist die Erforschung der mathematischen und technischen Aspekte der Perzeption von Umwelteindrücken durch digitale Rechensysteme. Die Umwelt wird dabei durch Sensoren erfasst – die gemessenen Werte bezeichnet man als Muster. Die automatische Transformation der gewonnenen Muster in symbolische Beschreibungen bildet den Kern der Mustererkennung. Ein Beispiel hierfür sind automatische Sprachdialogsysteme, bei denen ein Benutzer an ein System per natürlicher gesprochener Sprache Fragen stellt: Mit einem Mikrophon (Sensor) werden die Schallwellen (Umwelteindrücke) aufgenommen. Die Auswertung des Sprachsignals mit Hilfe von Methoden der Mustererkennung liefert dem System die notwendigen Informationen, um die Frage des Benutzers beantworten zu können. Die Mustererkennung befasst sich dabei mit allen Aspekten eines solchen Systems von der Akquisition der Daten, bis hin zur Repräsentation der Erkennungsergebnisse. Die Anwendungsgebiete der Mustererkennung sind sehr breit gefächert und reichen von Industrieller Bildverarbeitung über Handschriftenerkennung, Medizinischer Bildverarbeitung, sprachverstehenden Systemen bis hin zu Problemlösungen in der Regelungstechnik. Die Forschungsaktivitäten am Lehrstuhl werden dabei in die vier Bereiche • Rechnersehen • Medizinische Bildverarbeitung • Digitaler Sport • Sprachverarbeitung gegliedert, wobei der Anwendungsschwerpunkt im Bereich der Medizin liegt. Rechnersehen Der Bereich Rechnersehen bearbeitet die Objektverfolgung, Objekterkennung und Objektrekonstruktion aus Kameradaten. Ein zentrales, darauf aufbauendes Thema ist die aktive Sensordatenauswahl. Dabei werden die informationstheoretisch optimalen Kameraaktionen für diese Probleme a priori geschätzt. Ein weiterer Punkt ist die plenoptische Modellierung von Objekten und die Integration dieser Daten in reale Aufnahmen mit dem Ziel der Erweiterten Realität. In der Objekterkennung werden aktuell erscheinungsbasierte, statistische Klassifikatoren mit Farb- und Kontextmodellierung untersucht. 131 Medizinische Bildverarbeitung Die Forschungsarbeiten im Bereich der Medizinischen Bildverarbeitung beschäftigen sich mit Fragestellungen der Bildregistrierung, Rekonstruktion, Segmentierung und Bildanalyse. Im Rahmen des SFB 539 wird ein Verfahren zur Früherkennung von Glaukomerkrankungen weiterentwickelt. Hierbei wird die Segmentierung des optischen Sehnervenkopfes ebenso untersucht wie die segmentierungsfreie Klassifikation. Erweiterte Rekonstruktionsalgorithmen zur 3D/4D Herzrekonstruktion unter Verwendung von C-Arm CT werden untersucht und entwickelt. Im Rahmen des Sonderforschungsbereiches 603 besteht ein Ziel darin, Augmented Reality während minimal-invasiv durchgeführter Eingriffe in der Bauchhöhle bereitzustellen. Weiterhin werden neuartige bildgebende Verfahren sowie exakte Rekonstruktionsalgorithmen in der Computertomographie (CT) entwickelt und deren Realisierung mittels unterschiedlichen Hardwarearchitekturen untersucht. Eine weitere Problemstellung ist die Detektion und Segmentierung von Lymphknoten in Ganzkörper Magnetresonanzaufnahmen und Kantenerhaltende Rauschreduktion in der CT auf Basis von Korrelationsanalysen. Digitaler Sport Eingebettete Systeme sind in der Lage, ihren Benutzern in vielen Bereichen des Alltags wichtige und interessante Informationen bereitzustellen. Beispiele dafür finden sind in der Automobiltechnik, der Automation industrieller Abläufe, in medizinischen Implantaten und in vielen anderen Anwendungsgebieten. Speziell im Sportbereich sind Systeme zur Unterstützung, Leitung und Motivation von Athleten von großem Wert. Es gibt bereits heute beispielsweise die Möglichkeit, die Pulsfrequenz und/oder die momentane Geschwindigkeit von Läufern zu messen und anzuzeigen. Im Rahmen der Forschung im Digitalen Sport werden solche und ähnliche Konzepte untersucht und verbessert. Zu diesem Zweck werden Möglichkeiten zur Integration von verschiedenen Sensoren in Sportbekleidung geprüft. Darüber hinaus werden die potentiellen Verarbeitungsalgorithmen für die gemessenen Signale einer genauen Betrachtung unterzogen. Methoden der Mustererkennung werden dann angewendet um die Informationen welche von Interesse sind zu extrahieren. Denkbare Beispiele sind die Anzeige des Ermüdungszustandes oder die Bewertung der Qualität der Laufbewegung, um Langzeitschäden zu vermeiden. Sprachverarbeitung Neben der automatischen Merkmalberechnung und der darauf aufbauenden Spracherkennung beschäftigt sich der Lehrstuhl mit den folgenden Aufgabengebieten der Spracherkennung: Sprachdialogsysteme, Erkennung und Verarbeitung von unbekannten Wörtern, Sprachbewertung sowie automatische Analyse und Klassifikation prosodischer Phänomene. Weiterer Schwerpunkt ist seit einigen Jahren die automatische Erkennung von emotionalen Benutzerzuständen mit Hilfe akustischer und linguistischer 132 Merkmale. Neu hinzugekommen sind die Erkennung solcher Benutzerzustände anhand physiologischer Parameter sowie die multimodale Erkennung des Aufmerksamkeitsfokus von Benutzern bei der Mensch-Maschine-Interaktion. 9.1 Forschungsschwerpunkte • nicht-starre Registrierung multimodaler Bilddaten • monomodale Bildfusion zur Verlaufskontrolle bei der Tumor Therapie • Verfahren zur Schwächungskorrektur bei der SPECT-Rekonstruktion • Rekonstruktion bewegter Objekte bei bekannter Projektionsgeometrie • Berechnung und Visualisierung des Blutflusses in 3D-Angiogrammen • Segmentierung von CT-Datensätzen • schnelle Bildverarbeitung auf Standardgrafikkarten • Diskrete Tomographie • Sprachsteuerung interventioneller Werkzeuge • 3D Objekterkennung • Objektverfolgung • Aktive Sensordatenverarbeitung • 3D Rekonstruktion und Kamerakalibrierung • Plenoptische Modellierung • Erweiterte Realität • Autonome, mobile Systeme • Aktive unterstützende Systeme im Sport • Ermüdungserkennung • Mimik- und Gestik • Bewertung von pathologischer Sprache 133 • Aussprachebewertung • Prosodie • Dialog • Benutzerzustandserkennung (von Ärger über Müdigkeit bis Zögern) 9.2 Forschungsrelevante apparative Ausstattung • Mobiles System MOBSY mit aktivem Stereokamera-Kopf • Drehteller und Schwenkarm zur Bildaufnahme • Smartkom-Zelle • Head-Mounted Display mit integriertem Stereokamera-System • Pan-Tilt Einheiten • Time-of-Flight Camera Aufgrund der engen Kooperation der Arbeitsgruppe mit den Kliniken und der Industrie besteht Zugriff auf sämtliche Modalitäten, die in der modernen Medizin heute zum Einsatz kommen. Die verfügbare Entwicklungsumgebung erlaubt die schnelle Überführung der neu entwickelten Methoden in den klinischen Test. 9.3 Kooperationsbeziehungen • Charité Universitätsmedizin Berlin: Klinik und Hochschulambulanz für Radiologie und Nuklearmedizin http://www.medizin.fu-berlin.de/radio/ • Deutsches Forschungszentrum http://www.dfki.de/web/index.de.html für Künstliche Intelligenz • Harvard University, USA: Department of Radiology at Brigham and Women’s Hospital http://brighamrad.harvard.edu/index.html • ITC-irst, Trento, Italia: Sistemi sensoriali interattivi (Interactive Sensory System Division) http://ssi.itc.it/ • LIMSI-CNRS, Orsay, France: Groupe Traitement du Langage Parlé (Spoken Language Processing Group) http://www.limsi.fr/Scientifique/tlp/ 134 • LMU München: Institut für Phonetik und Sprachliche Kommunikation http://www.phonetik.uni-muenchen.de/ • Queen’s University Belfast, http://www.psych.qub.ac.uk/ • Stanford University, http://rsl.stanford.edu/ USA: UK: School Radiological of Sciences Psychology Laboratory • Szegedi Tudományegyetem, Magyarország (University of Szeged, Hungary): Képfeldolgozás és Számı́tógépes Grafika Tanszék (Department of Image Processing and Computer Graphics) http://www.inf.uszeged.hu/tanszekek/kepfeldolgozasesszg/starten.xml • TU München: Lehrstuhl http://www.mmk.ei.tum.de/ für Mensch-Maschine-Kommunikation • Universität Bielefeld: Angewandte Informatik http://www.techfak.unibielefeld.de/ags/ai/ , Neuroinformatik http://www.techfak.uni-bielefeld.de/ags/ni/ • Universität Bonn: Institut für Numerische Simulation http://www.ins.unibonn.de/ • Universität des Saarlandes: Lehrstuhl http://www.lsv.uni-saarland.de/index.htm für Sprachsignalverarbeitung • Universität Jena: Lehrstuhl Digitale Bildverarbeitung http://www.inf-cv.unijena.de/ • Universität Koblenz-Landau: Institut für Computervisualistik http://www.unikoblenz.de/FB4/Institutes/ICV • Universität Mannheim: Bildverarbeitung, Mustererkennung und Computergrafik http://www.cvgpr.uni-mannheim.de/ • Universität Marburg: Diskrete Mathematik und Optimierung http://www.mathematik.uni-marburg.de/forschung/arbeitsgebiete mathe/diskret.php • Universitätsklinikum Erlangen: Nuklearmedizinische Klinik http://www.nuklearmedizin.klinikum.uni-erlangen.de/ , Radiologisches Institut http://www.idr.med.uni-erlangen.de/ , Medizinische Klinik 1 http://www.medizin1.klinikum.uni-erlangen.de/ und 2 http://www.medizin2.klinikum.uni-erlangen.de/ , Phoniatrische und Pädaudiologische Abteilung http://www.phoniatrie.klinikum.uni-erlangen.de/ 135 • Universität Würzburg: Abteilung http://www.neuroradiologie.uni-wuerzburg.de/ für Neuroradiologie, • University of Utah, USA: Utah Center for Advanced Imaging Research http://www.ucair.med.utah.edu/ 9.4 Wissenschaftliche Tagungen • 3rd Russian-Bavarian Conference on Biomedical Engineering (2.-3.07.2007) http://www5.informatik.unierlangen.de/Forschung/Publikationen/2007/Hornegger07-3RC.pdf 9.5 Veröffentlichungsreihen Die Veröffentlichungen des Lehrstuhls befinden sich auf der lehrstuhleigenen Homepage unter http://www5.informatik.uni-erlangen.de/publications/ 9.6 9.6.1 Forschungsprojekte Aktive 3-D-Rekonstruktion Projektleitung: Prof. em. Dr.-Ing. Heinrich Niemann Beteiligte: Dipl.-Math. (FH) Stefan Wenhardt Stichwörter: 3-D Rekonstruktion; Aktives Sehen; Rechnersehen Laufzeit: 1.1.2004–31.5.2007 Die 3-D-Rekonstruktion befasst sich mit der Berechnung der 3-D-Geometrie eines Objekts. Diese Geometrie kann in weiteren Anwendungen wie z. B. beim bildbasierten Rendering oder bei der Erzeugung von erweiterter Realität (Augmented Reality) genutzt werden. Dabei werden die Informationen für die aktive Rekonstruktion aus Kamerabildern gewonnen – das Wort ”aktiv” bedeutet nicht, dass es sich hierbei um aktive Sensoren, wie z. B. Lasersensoren oder strukturiertes Licht, handelt. Vielmehr werden die Kameras aktiv gesteuert, d. h. für die 3-D-Rekonstruktion werden Ansichten geplant, die den zu erwartenden Fehler der Rekonstruktion minimieren. 136 Der entwickelte Ansatz basiert auf einem erweiteren Kalman Filter. Dieses erlaubt zunächst die einfache Integration von Informationen aus neuen Bildern, um die bisherige Schätzung der Geometrie zu verbessern. Die Schätzung wird durch die Parameter einer multidimensionalen Normalverteilung repräsentiert. Der Erwartungswert ist dabei der optimale lineare Schätzwert, im Sinne des kleinsten quadratischen Fehlers. Die Kovarianz ist ein Maß für die Unsicherheit. Mit Hilfe des Kalman Filters lässt sich zudem vorhersagen, wie sich die Integration eines neuen Bildes mit bestimmten Kameraparametern auf die Kovarianzmatrix auswirken wird, ohne tatsächlich das Bild aufnehmen zu müssen. Man kann also aufgrund der bisherigen Schätzung diejenige nächste Konfiguration von Kameraparametern bestimmen, die die Kovarianzmatrix möglichst ”klein” werden lässt. Um die ”Größe” der Matrix zu bestimmen, wurden zwei Kriterien getestet: • D-Kriterium: Es lässt sich zeigen, dass die Determinante der Kovarianzmatrix einer Normalverteilung, bis auf konstante Terme, der Entropie entspricht. Minimierung der Determinante bedeutet dann Minimierung der Entropie und damit gleichzeit eine Erhöhung des Informationsgehalts. Dieses Kriterium ist also informationstheoretisch motiviert. • E-Kriterium: Die Kovarianzmatix besitzt eine Blockdiagonalstruktur aus 3×3 Blöcken. Jeder Block repräsentiert die Unsicherheit eines 3-D-Punkts in die 3 Raumrichtungen. Der Eigenvektor, der mit dem größten Eigenwert korrespondiert, gibt die Richtung an, in der Schätzung der 3-D-Koordinaten eines Punkts am unsichersten ist. Das E-Kriterium wird aus der Summe der max. Eigenwerte über alle Blöcke berechnet. Es ist also geometrisch motiviert. Der beschriebene Ansatz wurde realisiert und mit realen Daten getestet. In den Experimenten sind jedoch zwei weitere Randbedingungen zu beachten: • Zur Positionierung der Kameras wurde ein Roboterarm verwendet. Das Bewegungsmodell dieses Arms muss berücksichtigt werden, um nur die Positionen zu analysieren, die tatsächlich erreichbar sind. • Verdeckungen von Objektregionen durch das Objekt selbst müssen berücksichtigt werden. Die Selbstverdeckung kann sonst ein Bild für die 3-D-Rekonstruktion unbrauchbar machen, da evtl. die zu rekonstruierenden Punkte aufgrund der Selbstverdeckung nicht sichtbar sind. Durch die probabilistische Modellierung der Selbstverdeckung konnte diese Randbedingung in den wahrscheinlichkeitstheoretischen Kalman Filter Ansatz integriert werden. Es konnte gezeigt werden, dass durch die aktive 3-D-Rekonstruktion das Rekonstruktionsergebnis gegenüber einer passiven, d. h. ohne Ansichtenplanung, stark verbessert 137 werden konnte, im Sinne einer höheren Rekonstruktionsgenauigkeit. Das geometrisch motivierte E-Kriterium war dabei dem D-Kriterium überlegen. Durch die Einführung der Verdeckungsmodellierung konnte nun auch bei nichtplanaren Objekten gute Ergebnisse erzielt werden. Publikationen – Wenhardt, Stefan ; Denzler, Joachim ; Niemann, Heinrich: On Minimizing Errors in 3-D-Reconstruction for Stereo Camera Systems . In: Geppener, V.V. ; Gurevich, I.B. ; Ivanova, S.E. ; Nemirko, A.P. ; Niemann, Heinrich ; Puzankov, D.V. ; Trusova, Yu.O. ; Zhuravlev, Yu.I. (Hrsg.) : 7th International Conference on Pattern Recognition and Image Analysis 2004: New Information Technologies (7th International Conference on Pattern Recognition and Image Analysis 2004: New Information Technologies St. Petersburg, Russia). St. Petersburg : SPbETU, 2004, S. 562–565. – Wenhardt, Stefan ; Deutsch, Benjamin ; Hornegger, Joachim ; Niemann, Heinrich ; Denzler, Joachim: An Information Theoretic Approach for Next Best View Planning in 3-D Reconstruction . In: Tang, Y.Y. ; Wang, S.P. ; Lorette, G. ; Yeung, D.S. ; Yan, H. (Hrsg.) : The 18th International Conference on Pattern Recognition (18th International Conference on Pattern Recognition (ICPR 2006) Hong Kong 20 – 24 August, 2006). Bd. 1. Los Alamitos, California, Washington, Tokyo : IEEE Computer Society, 2006, S. 103-106. (IEEE Computer Society Order Number P2521) – ISBN 0-7695-2521-0 9.6.2 Atemgating Projektleitung: Prof. Dr.-Ing. Joachim Hornegger Beteiligte: Dipl.-Inf. Christian Schaller Dr. Florian Höpfl Peter Nix Stichwörter: Atmung; Gating; 4D Rekonstruktion; Strahlentherapie Laufzeit: 1.6.2007–1.6.2010 Förderer: International Max-Planck Research School for Optics and Imaging Softgate GmbH Kontakt: 138 Dipl.-Inf. Christian Schaller Tel.: +49 9131 85 27799 Fax: +49 9131 303811 E-Mail: [email protected] Aufgrund von Verbesserungen im Bereich der Bildgebenden Systeme, wie 4-D CT, 4-D MRI, PET, SPECT spielen Atemartefakte eine immer größer werdende Rolle in der medizinischen Bildgebung. Heutzutage sind Bildgebende System leistungsfähig genug um Bilder mit einer sehr hohen örtlichen Auflösung aufnehmen zu können. Problematisch jedoch ist derzeit immer noch die zeitliche Auflösung bei der Aufnahme von bewegten Objekten. Grundsätzlich gibt es zwei Hauptquellen für Bewegung innerhalb des menschlichen Körpers: • Atmung • Herzschlag Dieses Projekt beschäftigt sich mit der durch Atmung verursachten Bewegung und untersucht neuartige Technologien zur Vermeidung von Atemartefakten in 4-D Aufnahmen. Es wird beispielsweise die Verwendbarkeit von Time-of-Flight Sensoren für einen Einsatz zur berührungslosen Messung von multidimensionalen Atemsignalen untersucht. Mögliche Anwendungsgebiete für diese neu entwickelten Technologien finden sich in den Bereichen 4-D CT, 4-D MRI, PET, SPECT sowie der Strahlentherapie. 9.6.3 Automatische Sprachanalyse von Kindern und Jugendlichen mit LippenKiefer-Gaumenspalten Projektleitung: PD Dr. med. Maria Schuster PD Dr.-Ing. habil. Elmar Nöth, Akad. Dir. Beteiligte: Dipl.-Inf. Andreas Maier Prof. Dr. med. dent. Ursula Hirschfelder PD Dr. med. Dr. med. dent. Emeka Nkenke Shozakai, Makoto Stichwörter: Phoniatrie und Pädaudiologie; 139 medizinische Bildverarbeitung; automatische Sprachanalyse Laufzeit: 1.12.2006–30.11.2009 Förderer: Deutsche Forschungsgemeinschaft Kontakt: PD Dr. med. Maria Schuster Tel.: 09131-853 2612 Fax: 09131-853 9272 E-Mail: [email protected] Zur Bewertung von Sprechstörungen von Patienten mit Lippen-Kiefer-Gaumenspalten fehlen bisher objektive, validierte und einfache Verfahren. Im klinischen Alltag werden Lautbildungsstörungen bisher üblicherweise durch eine subjektive, auditive Bewertung erfasst. Diese ist für die klinische und v.a. wissenschaftliche Nutzung nur bedingt geeignet. Die automatische Sprachanalyse, wie sie für Spracherkennungssysteme genutzt wird, hat sich bereits bei Stimmstörungen als objektive Methode der globalen Bewertung erwiesen, nämlich zur Quantifizierung der Verständlichkeit. Dies ließ sich in Vorarbeiten auch auf Sprachaufnahmen von Kindern mit Lippen-Kiefer-Gaumenspalten übertragen. In dem vorliegenden Projekt wird ein Verfahren zur automatischen Unterscheidung und Quantifizierung verschiedener typischer Lautbildungsstörung wie Hypernasalität, Verlagerung der Artikulation und Veränderung der Artikulationsspannung bei Kindern und Jugendlichen mit Lippen-Kiefer-Gaumenspalten entwickelt und validiert. Dies stellt die Basis für die Ermittlung ihres Einflusses auf die Verständlichkeit sowie zur Erfassung der Ergebnisqualität verschiedener therapeutischer Konzepte dar. Publikationen – Maier, Andreas ; Nöth, Elmar ; Nkenke, Emeka ; Schuster, Maria: Automatic Assessment of Children’s Speech with Cleft Lip and Palate . In: Erjavec, Tomaz ; Gros, Jerneja Zganec (Hrsg.) : Language Technologies, IS-LTC 2006 (Fifth Slovenian and First International Language Technologies Conference Ljubljana, Slovenia October 9 – 10, 2006). Bd. 1, 1. Aufl. Ljubljana, Slovenia : Infornacijska Druzba (Information Society), 2006, S. 31-35. – Maier, Andreas ; Haderlein, Tino ; Hacker, Christian ; Nöth, Elmar ; Rosanowski, Frank ; Eysholdt, Ulrich ; Schuster, Maria: Automatische internetbasierte Evaluation der Verständlichkeit . In: Gross, Manfred ; Kruse, Friedrich E. (Hrsg.) : Aktuelle phoniatrisch-pädaudiologische Aspekte 2006 (23. Wissenschaftliche Jahrestagung der Deutschen Gesellschaft für Phoniatrie und Pädaudiologie Heidelberg 15. – 17. September 2006). Bd. 14. Norderstedt : Books On Demand GmbH Norderstedt, 2006, S. 87-90. – ISBN 978-3-8334-6294-9 140 – Schuster, Maria ; Maier, Andreas ; Haderlein, Tino ; Nkenke, Emeka ; Wohlleben, Ulrike ; Rosanowski, Frank ; Eysholdt, Ulrich ; Nöth, Elmar: Evaluation of speech intelligibility for children with cleft lip and palate by means of automatic speech recognition . In: International Journal of Pediatric Otorhinolaryngology 70/2006 (2006), S. 1741-1747 – Maier, Andreas ; Hacker, Christian ; Nöth, Elmar ; Nkenke, Emeka ; Haderlein, Tino ; Rosanowski, Frank ; Schuster, Maria: Intelligibility of Children with Cleft Lip and Palate: Evaluation by Speech Recognition Techniques . In: Tang, Y.Y. ; Wang, S.P. ; Lorette, G. ; Yeung, D.S. ; Yan, H. (Hrsg.) : The 18th International Conference on Pattern Recognition (18th International Conference on Pattern Recognition (ICPR 2006) Hong Kong 20 – 24 August, 2006). Bd. 4, 1. Aufl. Los Alamitos, California, Washington, Tokyo : IEEE Computer Society, 2006, S. 274277. (IEEE Computer Society Order Number P2521) – ISBN 0-7695-2521-0 – Schuster, Maria ; Maier, Andreas ; Vogt, Beate ; Nöth, Elmar ; Nkenke, Emeka ; Holst, Alexandra ; Eysholdt, Ulrich ; Rosanowski, Frank: Objektive und automatische Ermittlung der Verständlichkeit von Kindern und Jugendlichen mit LippenKiefer-Gaumenspalten . In: Gross, Manfred ; Kruse, Friedrich E. (Hrsg.) : Aktuelle phoniatrisch-pädaudiologische Aspekte 2006 (23. Wissenschaftliche Jahrestagung der Deutschen Gesellschaft für Phoniatrie und Pädaudiologie Heidelberg 15. – 17. September 2006). Bd. 14. Norderstedt : Books On Demand GmbH Norderstedt, 2006, S. 43-46. – ISBN 978-3-8334-6294-8 – Maier, Andreas: PEAKS – Programm zur Evaluation und Analyse Kindlicher Sprachstörungen – Bedienungsanleitung . Erlangen : FAU. 2006 (1). – Interner Bericht. 28 Seiten – Nöth, Elmar ; Maier, Andreas ; Haderlein, Tino ; Riedhammer, Korbinian ; Rosanowski, Frank ; Schuster, Maria: Automatic Evaluation of Pathologic Speech from Research to Routine Clinical Use . In: Matousek, Vaclav ; Mautner, Pavel (Hrsg.) : Text, Speech and Dialogue (10th International Conference, TSD 2007 Pilsen, Tschechien 3.-7.9.2007). Bd. 1, 1. Aufl. Berlin : Springer, 2007, S. 294301. (Lecture Notes of Artificial Intelligence Bd. 4629) – ISBN 3-540-74627-7 – Maier, Andreas ; Nöth, Elmar ; Wohlleben, Ulrike ; Eysholdt, Ulrich ; Schuster, Maria: Automatische Bewertung der Nasalitaet von Kindersprache . In: Gross, M. ; Kruse, F. (Hrsg.) : Aktuelle phoniatrische Aspekte (Jahrestagung der Deutschen Gesellschaft fuer Phoniatrie und Paedaudiologie Innsbruck, Oesterreich 28.-30.9.2007). Bd. 15, 1. Aufl. Norderstedt : Books on Demand GmbH, 2007, S. 74-76. – ISBN 978-3-8334-8578-7 141 – Maier, Andreas ; Haderlein, Tino ; Schuster, Maria ; Nkenke, Emeka ; Nöth, Elmar: Intelligibility is more than a single Word: Quantification of Speech Intelligibilty by ASR and Prosody . In: Matousek, Vaclav ; Mautner, Pavel (Hrsg.) : Text, Speech and Dialogue (10th International Conference, TSD 2007 Pilsen, Tschechien 3.-7.9.2007). Bd. 1, 1. Aufl. Berlin : Springer, 2007, S. 278-285. (Lecture Notes of Artificial Intelligence Bd. 4629) – ISBN 3-540-74627-7 – Vogt, Beate ; Maier, Andreas ; Batliner, Anton ; Nöth, Elmar ; Nkenke, Emeka ; Eysholdt, Ulrich ; Schuster, Maria: Numerische Quantifizierung der Verständlichkeit von Schulkindern mit isolierter und kombinierter Gaumenspalte . In: HNO 55 (2007), Nr. 11, S. 891-898 – Maier, Andreas ; Haderlein, Tino ; Schuster, Maria ; Nöth, Elmar: PEAKS-A Platform for Evaluation and Analysis of all Kinds of Speech Disorders . In: CD-Rom (Hrsg.) : Proc. 41st Annual Meeting of the Society for Biomedical Technologies of the Association for Electrical, Electronic & Information Technologies (BMT 2007) (41st Annual Meeting of the Society for Biomedical Technologies of the Association for Electrical, Electronic & Information Technologies (BMT 2007) Aachen 26.-29.9.2007). Bd. 1, 1. Aufl. Berlin, New York : de Gruyter, 2007, S. no pagination. – Bocklet, Tobias ; Maier, Andreas ; Nöth, Elmar: Text-independent Speaker Identification using Temporal Patterns . In: Matousek, Vaclav ; Mautner, Pavel (Hrsg.) : Text, Speech and Dialogue (10th International Conference, TSD 2007 Pilsen, Tschechien 3.-7.9.2007). Bd. 1, 1. Aufl. Berlin : Springer, 2007, S. 318-325. (Lecture Notes of Artificial Intelligence Bd. 4629) – ISBN 3-540-74627-7 9.6.4 Automatische, objektive Analyse von Sprechstörungen von Patienten mit Plattenepithelkarzinomen der Mundhöhle Projektleitung: PD Dr. med. Maria Schuster PD Dr. med. Dr. med. dent. Emeka Nkenke Beteiligte: Dipl.-Inf. Andreas Maier PD Dr.-Ing. habil. Elmar Nöth, Akad. Dir. Stichwörter: Automatische Bewertung; Objektive Bewertung; Plattenepithelkarzinomen Laufzeit: 1.8.2006–30.11.2006 Förderer: 142 Sprechstörungen; ELAN-Fonds Kontakt: PD Dr. med. Maria Schuster Tel.: 09131-853 2612 Fax: 09131-853 9272 E-Mail: [email protected] Plattenepithelkarzinome der Mundhöhle zählen zu den zehn häufigsten malignen Erkrankungen des Menschen. Sie werden multimodal mit chirurgischen, radio- und chemotherapeutischen Verfahren behandelt. Die in der Folge der Behandlung entstehenden morphologischen Veränderungen bedingen funktionelle Einschränkungen, die neben der Nahrungsaufnahme vor allem das Sprechen betreffen. Bisher existiert keine vom Untersucher unabhängige Methode, die es erlaubt, Art und Ausmaß einer Sprechstörung objektiv und reproduzierbar zu quantifizieren. So gibt es kein verlässliches Maß für die Bewertung der Qualität des Sprechens nach der Therapie von Plattenepithelkarzinomen der Mundhöhle. Die Grundlage für die Indikationsstellung für eine bestimmte Variante der multimodalen Therapie und die Kontrolle des Therapieerfolges in Bezug auf das Sprechvermögens basiert daher bisher nicht auf objektiven und vergleichbaren Messungen. Im beantragten Projekt wird diese diagnostische Lücke durch die Etablierung eines standardisierten und objektiven Verfahrens mit Methoden der automatischen Spracherkennung geschlossen. 9.6.5 Bedienkonzept Nächste Generation Projektleitung: Prof. Dr.-Ing. Joachim Hornegger Beteiligte: Dipl.-Inf. Eva Kollorz Giesler, B. Barke, A. Stichwörter: Handgestenerkennung; PMD-Kamera; Tracking Laufzeit: 5.3.2007–31.8.2007 Förderer: Audi Electronics Venture GmbH Kontakt: Dipl.-Inf. Eva Kollorz Tel.: +49 9131 85 27894 Fax: +49 9131 303811 143 Segmentierung; Klassifizierung; E-Mail: [email protected] Bedienkonzepte spielen in der heutigen Zeit eine immer wichtiger werdende Rolle. Für die Bedienung gibt es einige gängige Möglichkeiten, wie z.B. Sprache oder Gesten. Jede dieser Möglichkeit hat ihre Vor- und Nachteile. In diesem Projekt wird untersucht, wie genau man die Position der Hand mit Hilfe einer sogenannten PMD-Kamera (Photomischdetektoren, Photonic Mixer Device) bestimmen kann bzw. welche Geste vom Benutzer ausgeführt wird. Die Kamera funktioniert wie folgt: das von einem Sender ausgesendete modulierte Infrarotsignal beleuchtet eine Szene, trifft dort auf Objekte und wird von diesen auf den Sensor der Kamera reflektiert. Durch den Phasenversatz können die Distanzen zu den jeweiligen Gegenständen in der beobachteten Szene berechnet werden. Daraus ergibt sich ein Distanzbild, in dem jeder Bildpunkt die Distanz zu dem beobachteten 3-D Punkt in der Szene angibt. Die Kamera liefert auch ein herkömmliches Grauwertbild. Für die Segmentierung der Hand werden sowohl die Grauwert- als auch die Distanzdaten verwendet. Der Versuchsaufbau ist fest und für die Evaluierung werden bestimmte Bedienelemente aus dem Automobilbereich miteinbezogen. Die Verarbeitungskette soll echtzeitfähig sein, d.h. für ein Bild darf die Kette max. 66 ms beanspruchen. Das System wird mit einem festen Versuchsablauf evaluiert, um nahe und ferne Nachbarschaftsbeziehungen zu berücksichtigen. 9.6.6 Detektion von Lymphknoten in Ganzkörper Magnetresonanzaufnahmen Projektleitung: Prof. Dr.-Ing. Joachim Hornegger Beteiligte: Dipl.-Inf. Florian Jäger Prof. Dr. med. Frank Wacker Dr. med. Bernd Frericks Stichwörter: MRT; nichtstarre Registrierung; Segmentierung; Beginn: 1.7.2005 Mitwirkende Institutionen: Charité Universitätsmedizin Berlin, Campus Benjamin Franklin, Klinik für Nuklearmedizin und Radiologie Kontakt: Dipl.-Inf. Florian Jäger Tel.: +49 9131 85 27894 Fax: +49 9131 303811 E-Mail: [email protected] 144 Maligne Lymphome stellen die siebt häufigste Todesursache in der westlichen Welt dar. Die Therapie der Patienten sowie die Prognose hängen entscheidend vom Ausbreitungsmuster der Erkrankung ab, was die wiederholte bildgebende Diagnostik des gesamten Körpers erfordert. Zukünftig wird vermehrt die GanzkörperMagnetresonanztomographie an Bedeutung gewinnen, weil damit Aufnahmen ohne Repositionierung während der Akquisition möglich sind. Allerdings umfasst ein typischer Datensatz einer solchen Ganzkörper MRT im Durchschnitt ein Volumen von 512x410x1400 Voxel. Derartige Datensätze können in der klinischen Routine ohne rechnergestützte Hilfe nicht mehr vollständig einer zeitnahen und zuverlässigen Evaluierung unterzogen werden, insbesondere wenn diese mit vorangegangenen Untersuchungen verglichen werden müssen. Das Projekt befasst sich mit der Entwicklung effizienter Methodiken zur rechnergestützten Auswertung großer medizinischer Datensätzen sowie zeitlicher Sequenzen. Durch das Hervorheben medizinisch relevanter Bereiche in den Bilddaten wird der Mediziner bei der Diagnostik unterstützt und somit eine höhere Effektivität und Kosteneffizienz im klinischen Alltag erreicht. Der Schwerpunkt liegt dabei auf der Behandlung von Lymphompatienten, wobei eine Verallgemeinerung der entwickelten Verfahren möglich sein soll. Die Bearbeitung dieses Projekts erfordert eine sehr enge interdisziplinäre Zusammenarbeit von Informatikern und Medizinern. Die beteiligten Gruppen sind einerseits der Lehrstuhl für Mustererkennung (Informatik 5), der Friedrich-Alexander Universität Erlangen-Nürnberg, sowie die Radiologie und Nuklearmedizin der Charité, Campus Benjamin-Franklin, Berlin. Der Aufgabenbereich des Lehrstuhls bezieht sich auf die Entwicklung neuer effizienter Methodiken zur Bearbeitung von großen medizinischen Datensätzen, wobei diese auf die Anwendbarkeit im klinischen Umfeld und die Validität von den beteiligten Medizinern untersucht werden. Strukturell kann das Projekt in zwei nahezu disjunkte Ansätze untergliedert werden: Zunächst wird die Detektion von Lymphomen in MRT Aufnahmen einer Untersuchung betrachtet. In der zweiten Phase wird dann die Lokalisation von Knoten in zeitlichen Sequenzen von MRT Aufnahmen bearbeitet. Detektion von Lymphknoten in einer Studie Die Detektion von Lymphknoten innerhalb einer MRT Studie basiert auf der Untersuchung mehrerer Wichtungen von MRT Datensätzen. Bei den in Frage kommenden Sequenzen handelt es sich primär um solche, die bei Routineuntersuchungen verwendet werden, z.B. T1-gewichtet, T2-gewichtet, FLAIR oder TIRM Sequenzen. Bei der Auswahl spielt die benötigte Akquisitionszeit eine wichtige Rolle. Erste Experimente zeigten, dass vor allem T1-gewichtete und TIRM Aufnahmen für die Segmentierungsund Lokalisationsalgorithmen vielversprechend sind. Um beide Datensätze vergleichen zu können werden diese in einem initialen Vorverarbeitungsschritt registriert. Hierbei 145 wird vorausgesetzt, dass die beiden Volumina bereits nahezu perfekt zueinander ausgerichtet sind, da sich der Akquisitionszeitpunkt nur marginal unterscheidet. Trotz allem wird, um kleinere Bewegungen des Patienten auszugleichen, eine nicht-starre Registrierung der Daten vorgenommen. Da hierbei zwar Datensätze der gleichen Modalität, aber unterschiedlicher Wichtungen betrachtet werden, wird auf multi-modale Ansätze zurückgegriffen. Allerdings muss dabei die Plausibilität der Ergebnisse (z.B. die Stärke der Deformation) im Auge behalten werden, um das Problem der Detektion nicht weiter zu erschweren. Zur Lokalisation der Lymphknoten werden ausschließlich statistische Methoden verwendet. Dies hat zwei Vorteile: Erstens liefern diese im Allgemeinen Wahrscheinlichkeiten über das Vorhandensein von Lymphknoten, was sich direkt mit dem Projektziel deckt, Zweitens sind diese oftmals generischer einsetzbar und damit die entwickelten Methodiken weitgehend von der Anwendung unabhängig. Hierbei werden verschiedene Klassen von Ansätzen betrachtet. Diese basieren einerseits auf der Clusterbildung der Datensätze durch eine Klassifikation der Voxel eines Datensatzes (z.B. mittels Fuzzy C-Means oder Markov Zufallsfelder basierter Methoden) und andererseits der Vorverarbeitung mit statistischen Methoden durch beispielsweise probabilistische Differenzbildung und probabilistische Grauwertadaption. Detektion von Lymphknoten in zeitlichen Sequenzen Ein weiterer Schwerpunkt des Projekts ist die Detektion von Lymphomen in zeitlichen Sequenzen von Ganzkörper MRT Aufnahmen. Hier erweist sich eine automatische Vorverarbeitung für den Mediziner als sehr wünschenswert, da er andernfalls Datensätze mehrerer Zeitpunkte sichten muss, was in der Regel sehr zeitintensiv ist. Da die einzelnen Volumina zu verschiedenen Zeitpunkten akquiriert wurden, werden diese zunächst starr transformiert, so dass sie weit möglichst deckungsgleich sind. Darauffolgend wird eine nicht-starre Registrierung durchgeführt. Als Ergebnis erhält man ein Vektorfeld, welches die Deformation zwischen den Datensätzen charakterisiert, so dass diese bezüglich eines Abstandsmaßes ideal zueinander passen. Damit beschreibt dieses Deformationsfeld auch die Volumenänderung von sich entwickelnden Strukturen, wie beispielsweise Läsionen. Wachsende Strukturen sind als mathematische Quelle und schrumpfende als Senke erkennbar. Zusammen mit den Informationen über die Position von Lymphknoten, welche durch die Lokalisation in Datensätzen eines Zeitpunktes bestimmt wurden, werden die Veränderungen innerhalb des Deformationsfeldes zur Detektion verwendet. Um Informationen aus Differenzbildern zugänglich zu machen müssen die Datensätze ebenso nicht-starr Registriert werden. Allerdings wird dabei eine weit stärkere Regularisierung des Deformationsfeldes benötigt, als im Falle der Detektion innerhalb einer Studie. Präsentation der Ergebnisse Das Ziel des Projektes ist nicht das Treffen einer endgültigen medizinischen Aussage, sondern der Verweis auf für die Diagnose interessante Bereiche innerhalb der Da146 tensätze um die benötigte Zeit der Sichtung zu reduzieren. Hierfür werden die Ergebnisse der Lokalisation mit Hilfe einer Wahrscheinlichkeitskarte dem Anwender zugänglich gemacht. Dieser kann die Darstellung durch die Wahl eines Konfidenzintervalls seinen Ansprüchen anpassen. Publikationen – Jäger, Florian ; Nyúl, László ; Frericks, Bernd ; Wacker, Frank ; Hornegger, Joachim: Whole Body MRI Intersity Standardization . In: Horsch, Alexander ; Deserno, Thomas M. ; Handels, Heinz ; Meinzer, Hans-Peter ; Tolxdorff, Thomas (Hrsg.) : Bildverarbeitung für die Medizin 2007 (Bildverarbeitung für die Medizin 2007 München 25.-27. März 2007). Berlin : Springer, 2007, S. 459-463. ISBN 103-540-71090-6 9.6.7 Entwicklung eines Expertensystems zur automatischen Bearbeitung von 3D-Oberflächenmodellen Projektleitung: Prof. Dr.-Ing. Joachim Hornegger Beteiligte: Dipl.-Inf. Konrad Sickel Prof. Dr.-Ing. Joachim Hornegger Stichwörter: Medizinische Bildverarbeitung, Expertensysteme, Künstliche Intelligenz Laufzeit: 1.4.2007–31.3.2010 Förderer: Siemens AG Kontakt: Dipl.-Inf. Konrad Sickel Tel.: +49 9131 85 27882 Fax: +49 9131 303811 E-Mail: [email protected] Ziel dieses Projekts ist die Entwicklung eines Expertensystems zur Automatisierung von Teilschritten einer Produktionskette. Vorteile dieses Expertensystems liegen vor allem in der erhöhten Verfügbarkeit des Wissens, in der Sicherung des vorhanden Wissens und in der Beschleunigung des Produktionsprozesses. Für die Entwicklung und Implementierung eines Expertensystems sind folgende Schritte notwendig. • Akquirierung des vorhandenen Wissens. 147 • Überprüfen des gesammelten Wissens auf Korrektheit und Plausibilität. • Formalisieren des Wissens und übertragen in eine Wissensbasis. Mögliche Formalisierungen hierbei sind Aussagen- oder Prädikatenlogik, aber auch Semantische Netze. • Entwerfen einer Inferenzmaschine passend zu Wissensbasis. Dies kann beispielsweise ein Planungsalgorithmus (Planer) sein. Der Planer sollte dabei robust genug sein um eventuelle Probleme bei der Planausführung handhaben zu können (Conditional planning, re-planning). Bekannte Planungsalgorithmen sind Progressions- und Regressionsplanen oder graphbasiertes Planen. • Implementierung eines Prototypen. • Testen und Verbessern des Prototypen. • Implementierung einer Lernkomponente um neue Regeln in die Wissensbasis aufnehmen zu können zum Beispiel durch Expertenvorführungen. 9.6.8 Erscheinungsbasierte, statistische Objekterkennung Projektleitung: Prof. em. Dr.-Ing. Heinrich Niemann Beteiligte: Dr.-Ing. Marcin Grzegorzek Stichwörter: Objekterkennung; Objektlokalisation; Objektklassifikation; statistische Modellierung; Wavelets; Farbmodellierung, Kontextmodellierung Laufzeit: 1.6.1999–30.6.2006 Förderer: Deutsche Forschungsgemeinschaft Kontakt: Dr.-Ing. Marcin Grzegorzek E-Mail: [email protected] Ziel dieses Projekts, das im Rahmen des Graduiertenkollegs ”Dreidimensionale Bildanalyse und -synthese” durchgeführt wird, ist die Klassifikation und Lokalisation von dreidimensionalen Objekten in Bildern. Dazu wird ein erscheinungsbasierter Ansatz eingesetzt. Dementsprechend wird kein vorhergehender Segmentierungsprozess benötigt, der geometrische Merkmale wie Kanten oder Ecken detektiert, sondern die Merkmale werden direkt aus den Intensitäten der Bildpunkte bestimmt. Dieser Ansatz 148 verwendet 2-D lokale Merkmale, die von Grauwertbildern mit Hilfe der Wavelet MultiSkalen-Analyse berechnet werden. Statistische Modellierung der Merkmale mit Hilfe von Dichtefunktionen macht den Ansatz robust gegenüber Beleuchtungsschwankungen und Rauschen. Bei praktisch relevanten Anwendungen sind die Objekte oft partiell verdeckt oder können sich vor beliebigem Hintergrund befinden. Deshalb wird auch der Hintergrund explizit modelliert und in der Erkennungsphase für jeden Merkmalsvektor entschieden, ob er zum Objekt oder zum Hintergrund gehört. Auch mehrere Objekte können im Bild auftreten, die lokalisiert und klassifiziert werden sollen. Im Allgemeinen ist die Anzahl der Objekte, die sich im Bild befinden, unbekannt. Auf Basis eines Abbruchkriteriums wird entschieden, wann die Suche nach Objekten beendet werden soll. Ein robustes Kriterium wurde bereits experimentell bestimmt. Um Objektklassen zu trainieren, werden mehrere Bilder von Objekten in bekannten Lagen und Orientierungen gebraucht. Üblicherweise werden die Objekte auf einem Drehteller gestellt, um einen bekannten Winkel gedreht und von einer Kamera, die auf einem Roboterarm montiert ist, aufgenommen. Bei größeren oder sich bewegenden Objekten ist der Einsatz vom Drehteller nicht möglich. In diesem Falle wird der Aufnahmeprozess mit einer handgeführten Kamera durchgeführt. Die unbekannten Lagen und Orientierungen von den Objekten, die für das Training benötigt werden, werden mit Hilfe eines ”Struktur aus Bewegung” Algorithmus rekonstruiert. Zur Evaluierung des Objekterkennungssystems entstand eine neue umfangreiche Stichprobe 3D-REAL-ENV. Bei über 30000 Trainingsbildern und 8000 Testbildern mit einem realen heterogenen Hintergrund von 10 Objekten kann man verschiedene Erkennungsalgorithmen objektiv vergleichen. Da die Beleuchtung in den Testbildern anders als in der Trainingsphase ist, konnte auch die Beleuchtungsunabhängigkeit des Systems nachgewiesen werden. In der letzten Zeit wurde die Objektfarbe bei der Berechnung der Merkmale berücksichtigt. 6-D lokale Merkmalsvektoren werden von Farbbildern berechnet, wobei die Wavelet Multi-Skalen-Analyse separat für den roten, grünen, und blauen Kanal durchgeführt wird. Bei Testbildern mit heterogenem Hintergrund stieg die Klassifikationsrate von 55.4 Publikationen – Grzegorzek, Marcin ; Niemann, Heinrich: Statistical Object Recognition Including Color Modeling . In: Kamel, Mohamed ; Campilho, Aurelio (Hrsg.) : Proceedings of the 2nd International Conference on Image Analysis and Recognition 149 (2nd International Conference on Image Analysis and Recognition Toronto 2830.09.2005). Berlin : Springer, 2005, S. 481-489. – ISBN 10 3-540-29069-9 – Reinhold, Michael ; Grzegorzek, Marcin ; Denzler, Joachim ; Niemann, Heinrich: Appearance-Based Recognition of 3-D Objects by Cluttered Background and Occlusions . In: Pattern Recognition 38 (2005), Nr. 5, S. 739-753 – Grzegorzek, Marcin ; Scholz, Ingo ; Reinhold, Michael ; Niemann, Heinrich: Fast Training for Object Recognition with Structure-from-Motion . In: Pattern Recognition and Image Analysis: Advanced in Mathematical Theory and Applications 15 (2005), Nr. 1, S. 183-186 9.6.9 Exakte Bildrekonstruktion aus Kegelstrahlprojektionen für Spezialtrajektorien Projektleitung: Prof. Dr.-Ing. Joachim Hornegger Dr. Günter Lauritsch (Siemens Medical Solutions) Prof. Dr. Frederic Noo (UCAIR) Beteiligte: Dipl.-Ing. (FH) Stefan Hoppe Dipl.-Inf. Frank Dennerlein Stichwörter: exakte Bildrekonstruktion; Kegelstrahl-Computertomographie; Kreis und Kreisbogen; Kreis und Linie; geometrische Kalibrierung Laufzeit: 1.3.2005–31.12.2007 Förderer: Siemens Medical Solutions Kontakt: Dipl.-Ing. (FH) Stefan Hoppe Tel.: +49 9131 85 28977 Fax: +49 9131 85 28990 E-Mail: [email protected] Gegenstand des Forschungsprojekts ist die Entwicklung, Verbesserung und Evaluierung von Verfahren zur exakten Bildrekonstruktion in der Computer Tomographie (CT). Die Projektionsdaten werden entlang neuartiger Abtastbahnen in Kegelstrahlgeometrie akquiriert. Für die Datenakquisition eignen sich beispielsweise moderne C-Bogen CT Anlagen. Neben der Auswahl und Untersuchung der Abtastbahnen steht die Entwicklung von Strategien zur korrekten Handhabung realer Daten und zur Reduzierung von Rekonstruktionsartefakten im Vordergrund. Eine besondere 150 Herausforderung stellt hierbei die Kalibrierung der Anlage dar, die benötigt wird um Abweichungen von der Idealgeometrie bei der Rekonstruktion berücksichtigen zu können. Das Forschungsprojekt wird von unserem industriellen Partner Siemens Medical Solutions unterstützt. Siemens Medical Solutions stellt außerdem den Zugang zu den neuesten Röntgenanlagen zur Verfügung und ermöglicht so die Entwicklung unter realen Bedingungen. Das Projekt ist auf drei Projektjahre ausgelegt: Im ersten Projektjahr 2005 wurde ein Prototyp des M-Line Algorithmus im Rahmen eines Forschungsaufenthaltes bei der Forschungseinrichtung UCAIR (www.ucair.med.utah.edu) der University of Utah unter Betreuung von Prof. Frederic Noo für die exakte Bildrekonstruktion mit realen Daten einer C-Bogen CT Anlage für eine Abtastbahn bestehend aus einem Teilkreis und einem Kreisbogen implementiert. Im zweiten Projektjahr 2006 erfolgte die intensive Evaluierung und Verbesserung dieses Prototyps in Hinblick auf entstehende Rekonstruktionsartefakte. In weiterfuehrender Zusammenarbeit mit der Forschungseinrichtung UCAIR der University of Utah (www.ucair.med.utah.edu), konnte die Bildqualität des Verfahrens weiter verbessert werden. Die Forschungsergebnisse wurden auf der IEEE MIC Konferenz 2006 in San Diego (CA, USA) in zwei Beiträgen veröffentlicht, wobei die Robustheit des Verfahrens bestätigt werden konnte. Im dritten und abschliessenden Projektjahr 2007 wurden folgende, vertiefende Themenschwerpunkte gesetzt und bearbeitet: 1) Rekonstruktion mit abgeschnittenen Projektionen. 2) Untersuchung eines wesentlichen Implementierungsschrittes fuer exakte Rekonstruktionsverfahren (Ableitung entlang der Abtastbahn). 3) Akquisition und Rekonstruktion von klinisch relevanten realen Daten. Punkt 1) beinhaltet die Untersuchung des Artefaktverhaltens bei axial und trans-axial abgeschnittenen Projektionen anhand des M-line Algorithmus fuer die Teilkreis-undBogen Abtastbahn, sowie die Untersuchung des Artefaktverhaltens beim Einsatz heuristischer Datenextrapolationsansaetze. Erste Ergebnisse wurden auf der 3D07 Konferenz in Lindau veroeffentlicht. Punkt 2) beschaeftigt sich mit der Entwicklung eines neuen, numerisch robusten Verfahrens zur Bestimmung der Ableitung entlang der Abtastbahn und dem Vergleich mit alternativen Ansaetzen. Erste Ergebnisse wurden auf der IEEE MIC Konferenz 2007 in Honolulu (Hawaii, USA) veroeffentlicht. Punkt 3) zielt auf die Identifizierung und Behebung von Kegelstrahlartefatkten bei realen und klinisch relevanten Daten ab. Dazu wurden mehrere Datensaetze eines menschlichen Thorax Phantoms akquiriert und mit dem M-line Algorithmus rekonstruiert. Erste Vergleiche mit dem im klinischen Alltag eingesetzten Feldkamp Algorithmus waren, in Hinblick auf die Behebung der Kegelstrahlartefatkte, vielversprechend. Es ist geplant die Ergebnisse im Jahr 2008 in einer einschlaegigen Fachzeitschrift zu veroeffentlichen. Die Arbeit wurde durch zwei weitere Forschungsaufenthalte an der University of Utah massgeblich unterstuezt. 151 9.6.10 Früherkennung von Augenerkrankungen anhand von hochentwickelten bildgebenden Verfahren zur Darstellung des Augenhintergrundes Projektleitung: Prof. Dr.-Ing. Joachim Hornegger Dr.-Ing. Ralf-Peter Tornow Beteiligte: Dipl.-Inf. Markus Mayer Dr.-Ing. Ralf-Peter Tornow Stichwörter: Optische Kohärenz Tomographie; OCT; Retina; Segmentierung; Glaukom; Visualisierung; Beginn: 1.9.2007 Förderer: School of Advanced Optical Technologies (SAOT) Kontakt: Dipl.-Inf. Markus Mayer Tel.: +49 9131 85 27882 Fax: +49 9131 303811 E-Mail: [email protected] Neue bildgebende Verfahren zur Darstellung des Augenhintergrundes wie die Optische Kohärenz Tomographie (OCT) können hochauflösende dreidimensionale Bilder der Tiefenstruktur der Netzhaut erzeugen. Das Ziel des Projekts ist die Verbesserung der Früherkennung und die Diagnose der Progression von Augenerkrankungen anhand derartiger Aufnahmen. Das Krankheitsbild ”Glaukom” steht hierbei im Mittelpunkt. Hierfür sollen einerseits automatische Methoden entwickelt werden, die Ophthalmologen neue Möglichkeiten zur Beurteilung von Bilddaten eröffnen. Eine automatische Segmentierung und Bestimmung der Dicke der Nervenfaserschicht ist hier als Beispiel zu nennen. Des weiteren müssen die Ergebnisse der Bildverarbeitung auch in einer sinnvollen Art und Weise dargestellt werden. Im Rahmen des Gemeinschaftsprojekts der Augenklinik und des Lehrstuhls für Mustererkennung wird somit als erster Schritt eine geeignete Visualisierungsmethode für die 3D OCT Daten und die Ergebnisse der Bildverarbeitung entworfen. Die Augenklinik Erlangen bringt ihre lange Erfahrung in der Entwicklung und Anwendung neuer Methoden in der Ophthamologie, insbesondere auch aus dem SFB 539, ein. Zusammen mit Kompetenz des Lehrstuhls für Mustererkennung in der Bildverarbeitung sind hervoragende Grundlagen für das Projekt vorhanden. 152 9.6.11 Fusion von Sensordaten zur Verarbeitung von Banknoten Projektleitung: Dr. Norbert Holl Prof. Dr.-Ing. Joachim Hornegger Beteiligte: Dipl.-Inf. Christian Rieß Stichwörter: Sensordatenfusion; Banknoten; Bildanalyse Laufzeit: 1.7.2007–30.6.2010 Förderer: Giesecke+Devrient GmbH Kontakt: Dipl.-Inf. Christian Rieß Tel.: +49 9131 85 27891 Fax: +49 9131 303811 E-Mail: [email protected] Im Rahmen einer Forschungskooperation zwischen der Giesecke+Devrient GmbH und dem Lehrstuhl fuer Mustererkennung sollen über die Projektlaufzeit von drei Jahren neue Algorithmen entworfen werden. Bei der automatisierten Bearbeitung und Klassifikation von Banknoten werden diese mit Sensoren verschiedener Modalitäten aufgenommen. Ziel des Projekts ist, mit neuartigen Ansätzen die Klassifikationsleistung und -zuverlässigkeit zu steigern. 9.6.12 Health-e-Child Projektleitung: Dr. Martin Huber Prof. Dr.-Ing. Joachim Hornegger Beteiligte: Dipl.-Inf. Michael Wels Stichwörter: Entscheidungsunterstützungssysteme, Datenintegration, Segmentierung Laufzeit: 1.1.2006–31.12.2009 Förderer: Siemens Corporate Technologies Kontakt: Dipl.-Inf. Michael Wels Tel.: +49 9131 85 27799 153 Fax: +49 9131 303811 E-Mail: [email protected] Das EU-Forschungsprojekt ”Health-e-Child” ist Bestandteil des sechsten europäischen Forschungsrahmenprogramms zur Förderung von Forschungsintegration und koordination innerhalb der Europäischen Union. Für den gesamten Projektzeitraum vom 1. Januar 2006 bis zum 31. Dezember 2009 beläuft sich das Projektbudget auf insgesamt 16,7 Millionen Euro, wovon 12,2 Millionen Euro als Foerdermittel von der EU aufgebracht werden. Ziel des Projektes ist die Entwicklung einer integrierten Healthcare-Plattform für die europäische Pädiatrie. In Form einer dezentralen Wissensbasis soll Wissen aus den verschiedensten Bereichen der medizinischen Praxis und biomedizinischen Forschung integriert werden. Langfristig soll auf diese Weise ungehinderter Zugriff auf eine universelle biomedizinische Wissensbasis zur individualisierten und präventiven Gesundheitsfürsorge, für die medizinische Forschung und Lehre und zur informierten Entscheidungsfindung bereitgestellt werden. Wesentlich für den Aufbau dieser Wissensbasis ist das explizite Projektziel der vertikalen und longitudinalen Datenintegration über alle Abstraktionsebenen medizinischen Wissens hinweg von der molekularen bis zur epidemiologischen Ebene, was ein einheitliches Bild des Gesundheitszustands eines Patienten ermöglichen soll. Der initiale Projektfokus beschränkt sich vorerst auf drei repräsentativ ausgewählte pädiatrische Erkrankungen aus den Bereichen Kardiologie, Rheumatologie und Neuroonkologie. Für diese sollen Ontologien entworfen, Wissen dezentral akquiriert und Applikationen zur Weiterverarbeitung der gewonnenen Daten entwickelt werden. Letztere umfassen vor allem Data Mining-Anwendungen und Entscheidungsunterstützungssysteme. Die FAU Erlangen-Nürnberg ist Partner im Teilprojekt A6-WP12 (Entscheidungsunterstützungssysteme) und wird zur Entwicklung eines Systems zur Klassifikation und Verlaufsvorhersage von Gehirntumoren bei Kindern beitragen. Im Sinne der vertikalen Datenintegration innerhalb des Health-e-Child-Projekts sollen sowohl Klassifikationsentscheidung als auch Vorhersage auf Basis multispektraler Daten gewonnen werden. Es wird angestrebt, durch das System einen innovativen Beitrag zur künftigen Ausgestaltung der pädiatrischen Diagnostik und Therapieplanung zu leisten. Kurz- und mittelfristiges Ziel der Arbeitsgruppe an der FAU ist die Extraktion aussagekräftiger (Tumor-)Merkmale aus Kernspintomographieaufnahmen, um mögliche Eingabedaten für ein datengetriebenes Entscheidungsunterstützungssystem zu gewinnen. In diesem Zusammenhang stellt die verlässliche und valide Segmentierung des Tumors und der einzelnen Tumorkompartimente einen wesentlichen Vorverarbeitungsschritt für die Quantifizierung spezifischer Krankheitsmerkmale dar. 154 Publikationen – Wels, Michael ; Staatz, Gundula ; Rossi, Andrea ; Huber, Martin ; Hornegger, Joachim: Anisotropic hidden Markov random field modeling for unsupervised MRI brain tissue segmentation and brain tumor detection . In: Lemke, Heinz U. ; Inamura, Kiyonari ; Doi, Kunio ; Vannier, Michael W. ; Farman, Allan G. (Hrsg.) : International Journal of Computer Assisted Radiology and Surgery Volume 2 Supplement 1 (Int J CARS (2007) (Suppl 1)) CARS 2007 Computer Assisted Radiology and Surgery Proceedings of the 21st International Congress and Exhibition (Computer Assisted Radiology and Surgery 21st International Congress and Exhibition Berlin, Germany 27.06.2007-30.06.2007). Bd. 2, 1. Aufl. Berlin : Springer Heidelberg, 2007, S. 457. – Wels, Michael ; Huber, Martin ; Hornegger, Joachim: A Boosting Approach for Multiple Sclerosis Lesion Segmentation in Multi-Spectral 3D MRI . In: Hornegger, Joachim ; Mayr, Ernst W. ; Schookin, Sergey ; Feußner, Hubertus ; Navab, Nassir ; Gulyaev, Yuri V. ; Höller, Kurt ; Ganzha, Victor (Hrsg.) : 3rd RussianBavarian Conference on Biomedical Engineering (3rd Russian-Bavarian Conference on Biomedical Engineering Erlangen 2.-3.07.2007). Bd. 1. Erlangen : Union aktuell, 2007, S. 116-120. – ISBN 3-921713-33-X – Wels, Michael ; Huber, Martin ; Hornegger, Joachim: Fully Automated Knowledge-Based Segmentation of the Caudate Nuclei in 3-D MRI . In: Heimann, Tobias ; Styner, Martin ; van Ginneken, Bram (Hrsg.) : 3D Segmentation in the Clinic – A Grand Challenge MICCAI 2007 Workshop Proceedings (10th International Conference on Medical Image Computing and Computer Assisted Intervention (MICCAI 2007) Brisbane, QLD, Australien 29.10.2007 – 02.11.2007). 2007, S. 19-27. – ISBN 978-0-643-09523-6 9.6.13 HUMAINE (Human-Machine-Interaction Network on Emotion) Projektleitung: PD Dr.-Ing. habil. Elmar Nöth, Akad. Dir. Beteiligte: Dr. phil. Anton Batliner Dipl.-Inf. Stefan Steidl Dipl.-Inf. Christian Hacker Dipl.-Inf. Florian Hönig Stichwörter: Emotionserkennung; Mensch-Maschine-Interaktion Laufzeit: 1.1.2004–31.12.2007 155 Förderer: EU Mitwirkende Institutionen: http://emotion-research.net/Members/ Kontakt: PD Dr.-Ing. habil. Elmar Nöth, Akad. Dir. Tel.: +49 9131 85 27888 Fax: +49 9131 303811 E-Mail: [email protected] HUMAINE (Human-Machine-Interaction Network on Emotion) ist ein NoE (Network of Excellence) im europäischen Rahmenprogramm FP6 und läuft vom 1.1.2004 bis zum 31.12.2007; Vertrags-Nr. 507422. HUMAINE will in der Europäischen Union die Grundlagen für die Entwicklung von Systemen schaffen, die menschliche emotionale oder emotions-ähnliche Zustände und Prozesse erkennen, modellieren und/oder beeinflussen können – sog. ”emotionale Systeme”. Solche Systeme sind grundlegend für die zukünftige Mensch-Maschine-Kommunikation; allerdings sind ihre Grundlagen noch nicht genügend erforscht. Einer der Gründe dafür ist sicherlich, dass das einschlägige Wissen auf unterschiedliche Disziplinen verteilt ist (Psychologie, Künstliche Intelligenz, Robotik, Spracherkennung, Bildverarbeitung, usw.). In HUMAINE kooperieren Experten aus all diesen Disziplinen. Sechs unterschiedliche thematische Gebiete werden bearbeitet: Emotionstheorie, Signale und Zeichen, emotionale Interaktion, Emotion in Kognition und Aktion, Emotion in Kommunikation und Überzeugung sowie Benutzerfreundlichkeit emotionaler Systeme. Gemeinsame Arbeitsprojekte werden auf Workshops sowie in Plenartreffen abgesprochen; darunter fällt auch die notwendige Infrastruktur (Korpora, die kulturelle und geschlechtsspezifische Unterschiede widerspiegeln, ein ethisches Rahmenwerk sowie ein Web-Portal). Ein Ziel ist das Verfassen eines Handbuches sowie Empfehlungen zur Methodik. Die FAU Erlangen-Nürnberg ist Partner im Teilprojekt WP4 (Signale und Zeichen) sowie in WP5 (Korpora). Im ersten Jahr konzentrierten sich die Aktivitäten auf das initiale Plenartreffen, eine Sommerschule über Korpora sowie Workshops über Theorie, Signale und Zeichen sowie Korpora. Gegen Ende 2004 wurden sog. ”Exemplars” genauer definiert und beschrieben. Darunter ist ein beispielhaftes Vorgehen zu verstehen, mit dem gezeigt wird, auf welche Weise ein Problem gelöst werden kann, und wie eine interdisziplinäre Herangehensweise auszusehen hat. Die spezielle Form eines solchen Exemplars ist nicht vorgegeben; es kann sich dabei um einen Demonstrator handeln, um ein Korpus, um ein experimentelles Design oder um spezifische Methoden. Der Beitrag unseres Instituts zu diesen ”Exemplars” besteht in einer so genannten ”forced co-operation” Initiative CEICES (Combining Efforts for Improving automatic Classification of Emotional user States): Wir stellen ein annotiertes emotionales Korpus zur 156 Verfügung (Sprachdaten, phonetisches Lexikon, handkorrigierte Segmentierung, Emotionslabels, handkorrigierte Grundfrequenz, syntaktisch-prosodische Grenzlabels) und definieren Trainings- und Test-Stichprobe. Alle teilnehmenden HUMAINE-Partner stellen allen anderen Partnern ihre eigenen extrahierten Merkmale zur Verfügung. Ziel ist es, mit dieser Kooperation eine Verbesserung der Erkennungsraten sowie einen Einblick in die Relevanz unterschiedlicher Merkmale und Merkmalstypen zu erreichen. Publikationen – Batliner, Anton ; Hacker, Christian ; Steidl, Stefan ; Nöth, Elmar ; D’Arcy, S. ; Russell, M. ; Wong, M.: ”You stupid tin box” – children interacting with the AIBO robot: A cross-linguistic emotional speech corpus. . In: ELRA (Hrsg.) : Proceedings of the 4th International Conference of Language Resources and Evaluation LREC 2004 (LREC Lisbon). 2004, S. 171–174. – Steidl, Stefan ; Levit, Michael ; Batliner, Anton ; Nöth, Elmar ; Niemann, Heinrich: ”Of All Things the Measure is Man” – Classification of Emotions and InterLabeler Consistency . In: IEEE (Veranst.) : Proceedings of ICASSP 2005 – International Conference on Acoustics, Speech, and Signal Processing (ICASSP 2005 – International Conference on Acoustics, Speech, and Signal Processing Philadelphia, Pennsylvania, U.S.A. March 18-23, 2005). Bd. 1. 3833 S. Texas Ave., Ste. 221 Bryan, TX 77802-4015 : Conference Managament Services, Inc., 2005, S. 317-320. – ISBN 0-7803-8874-7 – Batliner, Anton ; Steidl, Stefan ; Hacker, Christian ; Nöth, Elmar ; Niemann, Heinrich: Tales of Tuning – Prototyping for Automatic Classification of Emotional User States . In: ISCA (Hrsg.) : Proceedings of the 9th European Conference on Speech Communication and Technology (9th European Conference on Speech Communication and Technology – Interspeech 2005 Lisbon 4-8.9.2005). Bonn : ISCA, 2005, S. 489-492. – ISBN 1018-4074 – Batliner, Anton ; Steidl, Stefan ; Hacker, Christian ; Nöth, Elmar ; Niemann, Heinrich: Private Emotions vs. Social Interaction – towards New Dimensions in Research on Emotion . In: Carberry, Sandra ; de Rosis, Fiorella (Hrsg.) : Adapting the Interaction Style to Affective Factors (Workshop on Adapting the Interaction Style to Affective Factors, 10th International Conference on User Modelling Edinburgh 25.7.2005). 2005, S. – (8 pages, no pagination). – Batliner, Anton ; Burkhardt, Felix ; van Ballegooy, Markus ; Nöth, Elmar: A Taxonomy of Applications that Utilize Emotional Awareness . In: Erjavec, Tomaz ; Gros, Jerneja Zganec (Hrsg.) : Language Technologies, IS-LTC 2006 (Fifth 157 Slovenian and First International Language Technologies Conference Ljubljana, Slovenia October 9 – 10, 2006). Ljubljana, Slovenia : Infornacijska Druzba (Information Society), 2006, S. 246-250. – Batliner, Anton ; Steidl, Stefan ; Schuller, Björn ; Seppi, Dino ; Laskowski, Kornel ; Vogt, Thurid ; Devillers, Laurence ; Vidrascu, Laurence ; Amir, Noam ; Kessous, Loic ; Aharonson, Vered: Combining Efforts for Improving Automatic Classification of Emotional User States . In: Erjavec, Tomaz ; Gros, Jerneja Zganec (Hrsg.) : Language Technologies, IS-LTC 2006 (Fifth Slovenian and First International Language Technologies Conference Ljubljana, Slovenia October 9 – 10, 2006). Ljubljana, Slovenia : Infornacijska Druzba (Information Society), 2006, S. 240245. – Batliner, Anton ; Biersack, Sonja ; Steidl, Stefan: The Prosody of Pet Robot Directed Speech: Evidence from Children . In: Hoffmann, Rüdiger ; Mixdorff, Hansjörg (Hrsg.) : Proc. Speech Prosody, 3rd International Conference (Speech Prosody, 3rd International Conference Dresden 2.5.-5.5.2006). Dresden : TUDpress, 2006, S. 1-4. – ISBN 3-938863-57-9 – de Rosis, Fiorella ; Batliner, Anton ; Novielli, Nicole ; Steidl, Stefan: ’You are Sooo Cool, Valentina!’ Recognizing Social Attitude in Speech-Based Dialogues with an ECA . In: Paiva, Ana ; Prada, Rui ; Picard, Rosalind W. (Hrsg.) : Affective Computing and Intelligent Interaction (ACII 2007 Lisbon 12-14.09.2007). BerlinHeidelberg : Springer, 2007, S. 179-190. (LNCS, Nr. 4738) – Hönig, Florian: DRIVAWORK – Driving Under Varying Workload. A MultiModal Stress Database in the Automotive Context .Vortrag: HUMAINE Plenary Meeting, Paris, France, 06.06.2007 – Hönig, Florian ; Batliner, Anton ; Nöth, Elmar: Fast Recursive Data-driven Multiresolution Feature Extraction for Physiological Signal Classification . In: Hornegger, Joachim ; Mayr, Ernst W. ; Schookin, Sergey ; Feußner, Hubertus ; Navab, Nassir ; Gulyaev, Yuri V. ; Höller, Kurt ; Ganzha, Victor (Hrsg.) : 3rd RussianBavarian Conference on Biomedical Engineering (3rd Russian-Bavarian Conference on Biomedical Engineering Erlangen 2.-3.07.2007). Bd. 1. Erlangen : Union aktuell, 2007, S. 47-52. – ISBN 3-921713-33-X – Batliner, Anton ; Steidl, Stefan ; Nöth, Elmar: Laryngealizations and Emotions: How Many Babushkas? In: Schröder, Marc ; Batliner, Anton ; d’Alessandro, Christophe (Hrsg.) : Proceedings of the International Workshop on Paralinguistic Speech – between Models and Data (ParaLing’07 Saarbrücken 03.08.2007). Saarbrücken : DFKI, 2007, S. 17-22. 158 – Douglas-Cowie, Ellen ; Cowie, Roddy ; Sneddon, Ian ; Cox, Cate ; Lowry, Orla ; McRorie, Margaret ; Martin, Jean-Claude ; Devillers, Laurence ; Abrilan, Sarkis ; Batliner, Anton ; Amir, Noam ; Karpousis, Kostas: The HUMAINE Database: Addressing the Collection and Annotation of Naturalistic and Induced Emotional Data . In: Paiva, Ana ; Prada, Rui ; Picard, Rosalind W. (Hrsg.) : Affective Computing anf Intelligent Interaction (ACII 2007 Lisbon 12-14.09.2007). BerlinHeidelberg : Springer, 2007, S. 488-500. (LNCS, Nr. 4738) – Batliner, Anton ; Steidl, Stefan ; Schuller, Björn ; Seppi, Dino ; Vogt, Thurid ; Devillers, Laurence ; Vidrascu, Laurence ; Amir, Noam ; Kessous, Loic ; Aharonason, Vered: The Impact of F0 Extraction Errors on the Classification of Prominence and Emotion . In: IPA (Hrsg.) : Proceedings of the 16th International Congress of Phonetic Sciences (ICPhS 2007 Saarbrücken). 2007, S. 2201-2204. – Schuller, Björn ; Batliner, Anton ; Seppi, Dino ; Steidl, Stefan ; Vogt, Thurid ; Wagner, Johannes ; Devillers, Laurence ; Vidrascu, Laurence ; Amir, Noam ; Kessous, Loic ; Aharonson, Vered: The Relevance of Feature Type for the Automatic Classification of Emotional User States: Low Level Descriptors and Functionals . In: ISCA (Hrsg.) : Proceedings Interspeech (Interspeech Antwerp). 2007, S. 2253-2256. – Schuller, B. ; Seppi, D. ; Batliner, Anton ; Maier, Andreas ; Steidl, Stefan: Towards more Reality in the Recognition of Emotional Speech . In: IEEE Signal Processing Society (Hrsg.) : ICASSP, 2007 IEEE International Conference on Acoustics, Speech, and Signal Processing, Proceedings (ICASSP – International Conference on Acoustics, Speech, and Signal Processing Honolulu, Hawaii, USA 15-20.4.2007). Bryan, TX : Conference Managament Services, Inc., 2007, S. 941944. – ISBN 1-4244-0728-1 9.6.14 Kantenerhaltende Rauschreduktion in der CT auf Basis von Korrelationsanalysen Projektleitung: Prof. Dr.-Ing. Joachim Hornegger Dr. rer. nat. Rainer Raupach (Siemens Med. Sol.) Beteiligte: Dipl.-Inf. Anja Borsdorf Stichwörter: CT; Rauschreduktion; Korrelationsanalyse Laufzeit: 1.1.2006–31.12.2008 Förderer: 159 Siemens Medical Solutions Kontakt: Dipl.-Inf. Anja Borsdorf Tel.: +49 9131 85 25247 Fax: +49 9131 303811 E-Mail: [email protected] Die Computertomographie (CT) ist eines der wichtigsten bildgebenden Verfahren in der radiologischen Diagnostik. Allerdings wird die hohe Strahlungsdosis, der Patienten bei der Untersuchung ausgesetzt sind, meist als ein Hauptnachteil der CT angesehen. Zum Schutz des Patienten ist eine Verringerung der Dosis in jedem Fall erstrebenswert. Das Problem ist jedoch der direkte Zusammenhang zwischen Dosis und Bildqualität. Halbiert man die Dosis, so erhöht sich das Pixelrauschen in den rekonstruierten Schichtbildern um den Faktor Wurzel von zwei. Um eine verlässliche Diagnose zu garantieren, muss das Verhältnis zwischen relevanten Gewebekontrasten und der Rauschamplitude ausreichend groß sein. Demnach kann die Dosis nicht beliebig gesenkt werden. Dieses Projekt beschäftigt sich mit der Entwicklung eines Verfahrens zur kantenerhaltenden Rauschreduktion auf Basis von Korrelationsanalysen, um das Rauschen in CT-Daten zu reduzieren. Ziel ist es, somit entweder verbesserte Bildqualität bei gleich bleibender Dosis, oder eine Einsparung an Dosis ohne Verlust an Bildqualität zu erzielen. Bisher wurde die Anwendung von Wavelet-Transformation basierten Verfahren untersucht, um Rauschen in rekonstruierten Schichtbildern zu reduzieren. Anders als bei den meisten gängigen Verfahren zur Rauschreduktion wird dabei mit mehr als einem Eingangsdatensatz gearbeitet. Die Eingangsdaten sind räumlich identisch, jedoch zu unterschiedlichen Zeiten aufgenommen, wodurch das Rauschen in den Eingangsdaten unkorreliert ist. In der CT können solche Daten zum Beispiel mit Hilfe eines Dual-SourceCT Scanners aufgenommen warden, oder durch die getrennte Rekonstruktion mit nur jeweils jeder zweiten Projektion erzeugt werden. Mit Hilfe von Korrelationsanalysen zwischen den Eingangsdaten bzw. ihren Wavelet-Darstellungen kann anschließend zwischen Strukturen und Rauschen differenziert werden. Unterschiedliche zweidimensionale Wavelet-Transformationen (dyadische, stationäre, à-trous und quin-cunx) und Wavelets (Haar, Db2, CDF9/7) wurden zur lokalen Frequenzanalyse verwendet und miteinander verglichen. Darüber hinaus wurden verschiedene Methoden zur Korrelationsanalyse untersucht. Ausgewertet wurden die Verfahren hinsichtlich der erzielten Rauschreduktionsrate, sowie der Kantenerhaltung. Um eine anisotrope Rauschreduktion zu erzielen is es nötig, die einzelnen Richtungsbänder der Wavelettransformation getrennt zu behandeln. Dazu wurde eine Methode entwickelt, mit der aus den Differenzen der Waveletkoeffizienten der getrennt rekonstruierten Bilder lokal die Standardabweichung des Rauschens geschätzt werden 160 kann. Somit können richtungsabhängige Gewichte berechnet warden, die eine anisotrope Filterung erlauben. Desweiteren wurde das Verfahren auf 3D erweitert, wodurch eine verbesserte Bildqualität, sowohl visuell, als auch quantitative erzielt werden konnte. Dieses Projekt wird von Siemens Medical Solutions finanziert. Durch die enge Zusammenarbeit ist neben der Möglichkeit zur Abstimmung mit aktuellen Entwicklungen auch der Zugriff auf Geräte der neuesten Generation gewährleistet. Publikationen – Mayer, Markus ; Borsdorf, Anja ; Köstler, Harald ; Hornegger, Joachim ; Rüde, Ulrich: Nonlinear Diffusion Noise Reduction in CT Using Correlation Analysis . In: Hornegger, Joachim ; Mayr, Ernst W. ; Schookin, Sergey ; Feußner, Hubertus ; Navab, Nassir ; Gulyaev, Yuri V. ; Höller, Kurt ; Ganzha, Victor (Hrsg.) : 3rd Russian-Bavarian Conference on Biomedical Engineering (3rd Russian-Bavarian Conference on Biomedical Engineering Erlangen 2.-3.07.2007). Bd. 1. Erlangen : Union aktuell, 2007, S. 155-159. – Borsdorf, Anja ; Raupach, R. ; Hornegger, Joachim: Separate CT-Reconstruction for Orientation and Position Adaptive Wavelet Denoising . In: Horsch, Alexander ; Deserno, Thomas M. ; Handels, Heinz ; Meinzer, Hans-Peter ; Tolxdoff, Thomas (Hrsg.) : Bildverarbeitung für die Medizin 2007 (BVM 2007 München 25.-27.03.2007). Berlin : Springer, 2007, S. 232-236. – ISBN 978-3-540-71090-5 – Mayer, Markus ; Borsdorf, Anja ; Köstler, Harald ; Hornegger, Joachim ; Rüde, Ulrich: Nonlinear Diffusion vs. Wavelet Based Noise Reduction in CT Using Correlation Analysis . In: Lensch, H.P.A. ; Rosenhahn, B. ; Seidel, H.-P. ; Slusallek, P. ; Weickert, J. (Hrsg.) : Vision, Modelling, and Visualisation 2007 (Vision, Modelling, and Visualisation 2007 saarbrücken 7.-9.11.2007). 1. Aufl. Saarbrücken : Max-Planck-Institut fuer Informatik, 2007, S. 223-232. – Borsdorf, Anja ; Raupach, Rainer ; Hornegger, Joachim: Separate CTReconstruction for 3D Wavelet Based Noise Reduction Using Correlation Analysis . In: Yu, Bo (Hrsg.) : IEEE NSS/MIC Conference Record (IEEE Nuclear Science Symposium and Medical Imaging Conference Honolulu, USA 27.10.03.11.2007). 2007, S. 2633-2638. – Borsdorf, Anja ; Raupach, Rainer ; Hornegger, Joachim: Wavelet based Noise Reduction by Identification of Correlation . In: Franke, Katrin ; Müller, KlausRobert ; Nickolay, Bertram ; Schäfer, Ralf (Hrsg.) : Pattern Recognition (DAGM 2006), Lecture Notes in Computer Science (28th DAGM Symposium Berlin 12.14.09.2006). Bd. 4174. Berlin : Springer, 2006, S. 21-30. – ISBN 3-540-44412-2 161 9.6.15 Koronarangiographie unter Verwendung von C-Arm CT Projektleitung: Prof. Dr.-Ing. Joachim Hornegger Beteiligte: Dipl.-Inf. Marcus Prümmer Siemens AG, Medical Solution, Forchheim, Germany Stichwörter: Koronar C-Arm CT; Bewegungskorrektur in der Koronar C-Arm dots ; Bewegungsschätzung des Herzens Laufzeit: 1.10.2003–31.3.2008 Förderer: Bavaria California Technology Center Kontakt: Dipl.-Inf. Marcus Prümmer Tel.: +49 9131 85 27826 Fax: +49 9131 303811 E-Mail: [email protected] Koronarangiographie unter Verwendung von C-Arm CT ist eine neue bildgebende Technik in der Entwicklung, die eine Kombination von 3D Bildakquisition und Echtzeit Fluroskopie auf einem System erlaubt. Dabei werden die Vorteile der 3D/4D Bildgebung herkömmlicher Herz-CT Systeme und der Echtzeit 2D Projektionsmodus von C-Arm Systemen kombiniert, die wegen der hohen räumlichen Bildauflösung im interventionellen Bereich eingesetzt werden. Für eine 3D Herzrekonstruktion wird eine Röntgenbildsequenz einer speziellen Herzphase benötigt. Dies geschieht standardmässig durch retrospektive Selektion der EKG-getriggert aufgenommenen Röntgenbilder. Dazu ist eine hohe zeitliche Auflösung der Herzphase erforderlich, wodurch hohe Hardware Anforderungen an C-Arm CT Geräte gestellt werden. Jedoch können derzeitige Systeme diesen Anforderungen noch nicht genügen. Um eine hohe zeitliche Auflösung der zu rekonstruierenden Herzphase zu ermöglichen werden neue Verfahren zur nicht-parametrischen Modellierung der 3D/4D Herzbewegung und neue Rekonstruktionsalgorithmen verwendet. Diese erlauben eine Bewegungskorrektur unter Verwendung der berechneten Herzbewegung, um somit Bewegungsartefakte zu reduzieren. Bewegungskorrektur für 4D-FBP Um die zeitliche Auflösung einer Herzrekonstruktion zu erhöhen, wird die patientenspezifische 4D Herzbewegung, basierend auf einer Sequenz an initial rekonstruierten EKG-getriggerten FDK Rekonstruktionen von verschiedenen Herzphasen, berechnet. Um das 4D Bewegungsfeld zu berechnen wird eine herkömmliche nicht-starre Regis162 trierung verwendet. In diesem Projekt wurde ein Feldkamp ähnlicher Algorithmus zur Rekonstruktion dynamischer Objekte entwickelt. Die prinzipielle Idee des Verfahrens ist es eine zeitlich abhängige räumliche Deformation aller gefilterten Rückprojektionen entsprechend des 4D Bewegungsfeldes durchzuführen um Erhöhung des Signal-Rausch-Verhältnisses in Koronar C-Arm CT mittels Bewegungskorrektur Eine standard Technik in der Koronar C-Arm CT ist es die aufgenommenen Projektionen eines Mehrfachlaufes des C-Bogens entsprechend dem EKG Signal zu triggern um mit Projektionen passend zur gewünschten Herzphase zu rekonstruieren. Dabei werden jedoch nur 1/N der aufgenommenen Projektionsdaten verwendet. Um das SignalRausch-Verhältnis zu erhöhen wurden Methoden entwickelt um alle aufgenommenen Projektionsdaten zur Rekonstruktion zu verwenden. Dazu werden alle Projektionen entsprechend der geschätzten 4D Herzbewegung relativ zu einer gewählten Referenzherzphase korrigiert. Schaetzung der 4D Herzbewegung Um Verschmierungen und Bewegungsartefakte zu reduzieren wird die Herzbewegung, durch eine zeitlich abhängige räumliche Deformation der gefilterten Rückprojekionen, kombensiert. In dieser Arbeit wird die Schätzung der 4D Herzbewegung, basierend auf einer Serie von initialen standard retrospektiv EKG-getriggerten FDK Rekonstruktionen, untersucht. Dazu wurde ein Framework zur Schätzung der 4D Herzbewegung unter Verwendung von bereits etabliereten nicht-starren Registrierungs-Algorithmen verwendet. Ein glattes 4D Bewegungsvektorfeld repräsentiert dabei die relative Deformation bezüglich einer Referenz-Herzphase. Mittels Interpolation kann das relative 4D Bewegungsfeld zu jeder anderen beliebigen Referenz-Herzphase konvertiert werden, unabhängig von den gewählten initialen Rekonstruktionen. Erste Ergebnisse wurden an realen Daten evaluiert. 4D Modellierung der Herzbewegung und Evaluierung Um eine hohe zeitliche Auflösung der zu rekonstruierenden Herzphase zu ermöglichen werden neue Verfahren zur nicht-parametrischen Modellierung der 3D/4D Herzbewegung und neue Rekonstruktionsalgorithmen verwendet. Diese erlauben eine Bewegungskorrektur unter Verwendung der berechneten Herzbewegung, um somit Bewegungsartefakte zu reduzieren. Für die Evaluierung der berechneten Herzbewegung werden 3D Ultraschall-Systeme eingesetzt, die eine Quantisierung der realen Herzbewegung an realen Daten ermöglichen. Publikationen – Nöth, Elmar: Sprachgesteuerte 3D-Angiographie – Die Software folgt dem Arzt aufs Wort .Vortrag: Kolloquium, IMKAI, Wien, 29.08.2005 163 – Prümmer, Marcus ; Wigstroem, Lars ; Hornegger, Joachim ; Boese, Jan ; Lauritsch, Guenter ; Strobel, Norbert ; Fahrig, Rebecca: Cardiac C-arm CT: Efficient Motion Correction for 4D-FBP . In: Smith, Graham C. (Hrsg.) : Nuclear Science Symposium, Medical Imaging (IEEE Medical Imaging Conference (MIC) San Diego 1-4 Nov.). 2006, S. 2620-2628. – Hornegger, Joachim: Cardiac C-Arm CT: Registration meets Reconstruction .Vortrag: Dagstuhl Seminar Senor Data and Information Fusion in Computer Vision and Medicine, Dagstuhl, 02. August.2006 – Prümmer, Marcus ; Wigstroem, Lars ; Fahrig, R. ; Lauritsch, G. ; Hornegger, Joachim: Cardiac C-Arm CT: SNR Enhancement by Combining Multiple Retrospectively Motion Corrected FDK-like Reconstructions . In: Horsch, Alexander ; Deserno, Thomas M. ; Handels, Heinz ; Meinzer, Hans-Peter ; Tolxdorff, Thomas (Hrsg.) : Bildverarbeitung für die Medizin 2007 (Bildverarbeitung für die Medizin 2007 München 25.-27. März 2007). Berlin : Springer, 2007, S. 222-226. ISBN 103-540-71090-6 – Prümmer, Marcus ; Han, Jingfeng ; Hornegger, Joachim: 2D-3D Non-rigid Registration using Iterative Reconstruction . In: Greiner, Günther ; Hornegger, Joachim ; Niemann, Heinrich ; Stamminger, Marc (Hrsg.) : Vision Modeling and Visualization (Workshop Vision Modeling and Visualization in Erlangen 2005 Erlangen 16.-18. November 2005). Erlangen : Akademische Verlagsgesellschaft Aka GmbH, Berlin, 2005, S. 187-194. – ISBN 3-89838-068-8 – Prümmer, Marcus ; Köstler, Harald ; Hornegger, Joachim ; Rüde, Ulrich: A full multigrid technique to accelerate an ART scheme for tomographic image reconstruction . In: Hülsemann, Frank ; Kowarschik, Markus ; Rüde, Ulrich (Hrsg.) : Frontiers in Simulation (Simulationstechnique 18th Symposium in Erlangen 2005 Erlangen 12.-15. September 2005). Erlangen : SCS Publishing House e.V., 2005, S. 632-637. – ISBN 3-936150-41-9 9.6.16 Korrektur von Intensitätsvariationen Magnetresonanztomographie Projektleitung: Prof. Dr.-Ing. Joachim Hornegger Beteiligte: Dipl.-Inf. Florian Jäger Paul Finn Stichwörter: 164 in der Ganzkörper- MRT; Korrektur von Signalinhomogenitäten Laufzeit: 1.1.2007–31.12.2008 Förderer: BaCaTeC Kontakt: Dipl.-Inf. Florian Jäger Tel.: +49 9131 85 27894 Fax: +49 9131 303811 E-Mail: [email protected] Ganzkörper Magnetresonanztomographie (MRT) kombiniert die Vorzüge von hohem Gewebekontrast mit der Möglichkeit Ganzkörperaufnahmen von Patienten ohne Repositionierung zu erstellen. Allerdings erschwert die große Menge an akquirierten Daten eine zeitnahe und zuverlässige Sichtung der Bilder durch den Radiologen. Weiterhin ist eine automatische Aufbereitung bzw. Analyse der Datensätze auf Grund deren Heterogenität sehr schwierig. Da ein Intensitätsstandard fehlt, der vergleichbar mit den Hounsfieldeinheiten in der Computertomographie wäre, kann a-priori Wissen über die Verteilung der Grauwerte für weitergehende Verarbeitungsschritte nicht verwendet werden. Allerdings basieren viele Segmentierungs- und Klassifikationsansätze auf diesen Größen. Dieses Projekt beschäftigt sich mit der Entwicklung von Methoden zur kombinierten Korrektur von inter und intra Intensitätsvariationen basierend auf den Statistiken der Datensätze. Ziel ist es einen protokolabhängigen Intensitätsstandard zu schaffen. Damit wird die Möglichkeit eröffnet, eine breitere Auswahl an Methoden zur automatischen Segmentierung und Klassifikation von Ganzkörper MRT Aufnahmen zu nutzen. 9.6.17 Lautbildungsstörungen bei Lippen-Kiefer-Gaumenspalte Projektleitung: Schuster, Maria Nkenke, Emeka PD Dr.-Ing. habil. Elmar Nöth, Akad. Dir. Beteiligte: Dipl.-Inf. Andreas Maier Dr.-Ing. Tino Haderlein Dipl. Med.-Inf. Jochen Penne Stichwörter: Phoniatrie und Pädaudiologie; Mund-Kiefer-Gesichtschirurgie; medizinische Bildverarbeitung; automatische Sprachanalyse Laufzeit: 1.1.2005–1.8.2006 165 Förderer: Johannes-und-Frieda-Marohn-Stiftung Kontakt: Dipl.-Inf. Andreas Maier Tel.: +49 9131 85 27872 E-Mail: [email protected] Lippen-Kiefer-Gaumenspalten stellen eine der häufigsten Fehlbildungen im Gesichtsbereich dar. Auch nach erfolgreicher operativer Behandlung bleiben morphologische Veränderungen der oberen Atmungs- und Sprechorgane zurück und führen zu Lautbildungsstörungen. Die Diagnostik der Lautbildungsstörungen erfolgt derzeit lediglich subjektiv oder erfasst nur Teilbereiche. Eine neue und für den Patienten nicht belastende Möglichkeit der objektiven und umfassenden Diagnostik der verschiedenen Lautbildungsstörungen stellt der Einsatz eines automatischen Spracherkennungssystems dar, welches sich bereits bei der Diagnostik anderer Störungen der lautsprachlichen Kommunikation bewährt hat. Hiermit sollen Lautbildungsstörungen erkannt, unterschieden und quantifiziert werden. Morphologische Besonderheiten des Nasenresonanzraumes, die bei dieser Patientengruppe Einfluss auf die Nasalität und damit die Sprachverständlichkeit haben, sollen mittels einer dreidimensionalen Rekonstruktion anhand von Endoskopiebildern vollständig und quantitativ erfasst werden. Damit lassen sich kostenintensive und belastende radiologische Untersuchungen zur Verlaufskontrolle oder zur Planung von operativen Eingriffen vermeiden. Diese Analysen von Funktion und Morphologie sollen die Grundlage für einen Ansatz zu Klärung der ursächlichen Zusammenhänge der Lautbildungsstörungen liefern. Publikationen – Maier, Andreas ; Nöth, Elmar ; Nkenke, Emeka ; Schuster, Maria: Automatic Assessment of Children’s Speech with Cleft Lip and Palate . In: Erjavec, Tomaz ; Gros, Jerneja Zganec (Hrsg.) : Language Technologies, IS-LTC 2006 (Fifth Slovenian and First International Language Technologies Conference Ljubljana, Slovenia October 9 – 10, 2006). Bd. 1, 1. Aufl. Ljubljana, Slovenia : Infornacijska Druzba (Information Society), 2006, S. 31-35. – Maier, Andreas ; Haderlein, Tino ; Hacker, Christian ; Nöth, Elmar ; Rosanowski, Frank ; Eysholdt, Ulrich ; Schuster, Maria: Automatische internetbasierte Evaluation der Verständlichkeit . In: Gross, Manfred ; Kruse, Friedrich E. (Hrsg.) : Aktuelle phoniatrisch-pädaudiologische Aspekte 2006 (23. Wissenschaftliche Jahrestagung der Deutschen Gesellschaft für Phoniatrie und Pädaudiologie Heidelberg 15. – 17. September 2006). Bd. 14. Norderstedt : Books On Demand GmbH Norderstedt, 2006, S. 87-90. – ISBN 978-3-8334-6294-9 166 – Schuster, Maria ; Maier, Andreas ; Haderlein, Tino ; Nkenke, Emeka ; Wohlleben, Ulrike ; Rosanowski, Frank ; Eysholdt, Ulrich ; Nöth, Elmar: Evaluation of speech intelligibility for children with cleft lip and palate by means of automatic speech recognition . In: International Journal of Pediatric Otorhinolaryngology 70/2006 (2006), S. 1741-1747 – Maier, Andreas ; Hacker, Christian ; Nöth, Elmar ; Nkenke, Emeka ; Haderlein, Tino ; Rosanowski, Frank ; Schuster, Maria: Intelligibility of Children with Cleft Lip and Palate: Evaluation by Speech Recognition Techniques . In: Tang, Y.Y. ; Wang, S.P. ; Lorette, G. ; Yeung, D.S. ; Yan, H. (Hrsg.) : The 18th International Conference on Pattern Recognition (18th International Conference on Pattern Recognition (ICPR 2006) Hong Kong 20 – 24 August, 2006). Bd. 4, 1. Aufl. Los Alamitos, California, Washington, Tokyo : IEEE Computer Society, 2006, S. 274277. (IEEE Computer Society Order Number P2521) – ISBN 0-7695-2521-0 – Maier, Andreas: PEAKS – Programm zur Evaluation und Analyse Kindlicher Sprachstörungen – Bedienungsanleitung . Erlangen : FAU. 2006 (1). – Interner Bericht. 28 Seiten – Schuster, Maria ; Maier, Andreas ; Vogt, Beate ; Nöth, Elmar ; Nkenke, Emeka ; Holst, Alexandra ; Eysholdt, Ulrich ; Rosanowski, Frank: Objektive und automatische Ermittlung der Verständlichkeit von Kindern und Jugendlichen mit LippenKiefer-Gaumenspalten . In: Gross, Manfred ; Kruse, Friedrich E. (Hrsg.) : Aktuelle phoniatrisch-pädaudiologische Aspekte 2006 (23. Wissenschaftliche Jahrestagung der Deutschen Gesellschaft für Phoniatrie und Pädaudiologie Heidelberg 15. – 17. September 2006). Bd. 14. Norderstedt : Books On Demand GmbH Norderstedt, 2006, S. 43-46. – ISBN 978-3-8334-6294-8 9.6.18 MEDICO – intelligente Bildsuche in Medizindatenbanken Projektleitung: Dr. Martin Huber Prof. Dr.-Ing. Joachim Hornegger Beteiligte: Dipl.-Inf. Johannes Feulner Stichwörter: Semantische Suche; Bildverstehen; Medizinische Bildverarbeitung Laufzeit: 1.8.2007–31.7.2012 Förderer: Siemens Mitwirkende Institutionen: 167 Siemens LME Erlanger Uniklinik Fraunhofer Institut für Graphische Datenverarbeitung Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI) Kontakt: Dipl.-Inf. Johannes Feulner Tel.: +49 9131 85 27825 Fax: +49 9131 303811 E-Mail: [email protected] Das Medico-Projekt ist Teil des THESEUS-Forschungsprogrammes, das vom Bundesministerium für Wirtschaft und Technologie (BMWi) initiiert wurde. Medico wurde im August 2006 von einem Industriekonsortium eingereicht, vom BMWi angenommen und läuft seit August 2007. Das BMWi stellt für THESEUS insgesamt 90 Mio Euro über einen Zeitraum von fünf Jahren zur Verfügung. Ziel des Medico-Projektes ist die Ermöglichung von semantischer Suche auf medizinischen Bilddatenbanken. Die Idee ist, aus medizinischen Bildern automatisch eine formale Beschreibung zu generieren. Ein Benutzer kann diese Beschreibungen unter Verwendung von Schlüsselwörtern oder Beispielbildern durchsuchen. Im Falle eines Beispielbildes wird dieses automatisch analysiert und Schlüsselwörter werden aus der formalen Beschreibung erzeugt, die dann für die Suche verwendet werden. Um dieses Ziel zu erreichen, müssen einige Teilprobleme gelöst werden: • Die robuste hierarchische Analyse und das Verstehen medizinischer Bilder • Entwicklung einer neuen skalierbaren und hierarchischen Informationsrepräsentation • Entwicklung einer neuen Architektur, die die semantische Bildsuche und skalierbare Suchlösungen unterstützt. Intelligente Bildsuchmaschinen für den medizinischen Bereich bieten ein enorm hohes Potenzial: • Kliniker und Ärzte verfügen damit in Zukunft über eine leistungsfähige Lösung zur Nutzung und Durchsuchung von Bilddatenbanken auf Basis von Inhalten und Semantikmerkmalen und erhalten damit eine wertvolle Entscheidungsunterstützung am Ort der Behandlung. 168 • CAD (Computer-Aided-Detection)-Technologien profitieren damit durch die Berücksichtigung der Semantikkomponente und ermöglichen in Folge wesentlich kürzere TTM(Time-to-Market)-Zeiten. • Einfachere und direkte Rekrutierung von Patienten zur Durchführung klinischer Studien durch Suchen nach den gewünschten Bildinhalten. • Einfachere Durchführung von epidemiologischen Studien durch Durchsuchen von geografisch verteilten Bilddatenbanken. 9.6.19 Optimierung von raumzeitlich basierter multimodaler Emissiontomographie in definierten Anwendungsbereichen Projektleitung: Prof. Dr.-Ing. Joachim Hornegger Prof. Dr. med. Torsten Kuwert Hans Vija Beteiligte: Dipl.-Ing. Johannes Zeintl Stichwörter: Molekulare Bildgebung; Dynamische Bildgebung; Bildqualitätsanalyse Laufzeit: 1.4.2007–30.3.2010 Förderer: Siemens Medical Solutions USA, Inc., Molecular Imaging Kontakt: Dipl.-Ing. Johannes Zeintl Tel.: +49 9131 85 36271 Fax: +49 9131 303811 E-Mail: [email protected] Die Molekularmedizin befasst sich mit der Erforschung von Erkrankungen auf der zellulären und molekularen Ebene. Die gewonnenen Erkenntnisse werden verwendet, um neue Methoden für Gesundheitsförderung und sowohl Diagnose als auch Behandlung von Krankheiten zu entwickeln. Die molekulare Bildgebung visualisiert und lokalisiert molekulare Prozesse in vivo für Diagnose und Therapie. Hierbei ist volumetrische Bildgebung klinischer Standard. Jedoch werden in den aktuellen klinischen Protokollen entweder statische Bedingungen angenommen, was zur Mittelung der temporalen Variationen der Tracer-Verteilung führt, oder es werden sequenzielle Aufnahmen in kurzen Zeitabständen, sogenannte 3+1D Aufnahmen, durchgeführt, um die temporale Variation abzuschätzen. Raumzeitlich beständige und unbeständige tomographische Datensätze aufzunehmen, zu verarbeiten und zu analysieren und 169 den Nutzen in klinischen Anwendungen zu beurteilen, ist Gegenstand von aktiver Forschung. Das Ziel dieses Forschungsprojektes ist die Grundlage für objektive und quantitative Beurteilung der Bildqualität von raumzeitlich basierten Datensätzen zu schaffen, und diese Methoden auf 3+1D und 4D Verfahren, welche noch entwickelt werden, anzuwenden. Die entworfenen Methoden werden in definierten klinischen Anwendungsbereichen eingesetzt. Publikationen – Vija, A. Hans ; Zeintl, Johannes ; Chapman, James T. ; Hawman, Eric G. ; Hornegger, Joachim: Development of Rapid SPECT Acquisition Protocol for Myocardial Perfusion Imaging . In: Smith, Graham C. (Hrsg.) : Nuclear Science Symposium, Medical Imaging Conference 2006 (2006 IEEE Nuclear Science Symposium, Medical Imaging Conference San Diego (USA) 29. Oktober – 4. November 2006). 2006, S. 1811-1816. – Zeintl, Johannes ; Vija, A. Hans ; Chapman, James T. ; Hawman, Eric G. ; Hornegger, Joachim: Quantifying the Effects of Acquisition Parameters in Cardiac SPECT Imaging and Comparison with Visual Observers . In: Smith, Graham C. (Hrsg.) : Nuclear Science Symposium, Medical Imaging Conference 2006 (2006 IEEE Nuclear Science Symposium, Medical Imaging Conference San Diego (USA) 1.-4. November 2006). 2006, S. 3251-3257. – Zeintl, Johannes ; Ding, Xinhong ; Vija, A. Hans ; Hawman, Eric G. ; Hornegger, Joachim ; Kuwert, Torsten: Estimation Accuracy of Ejection Fraction in Gated Cardiac SPECT/CT Imaging using Iterative Reconstruction with 3D Resolution Recovery in Rapid Acquisition Protocols . In: IEEE (Veranst.) : Nuclear Science Symposium, Medical Imaging Conference 2007 (2007 IEEE Nuclear Science Symposium, Medical Imaging Conference Honolulu (USA) 28.10.20073.11.2007). 2007, S. 4491-4496. 9.6.20 Quantitative Computertomographie mittels spektraler Detektion Projektleitung: Prof. Dr.-Ing. Joachim Hornegger Heismann, Björn Beteiligte: Michael Balda, M. Sc. Niederlöhner, Daniel Stichwörter: 170 CT; quantitative Computertomographie; spektrale Detektion; Dual-Energy Rekonstruktion; objektive Bildqualitätsbewertung Laufzeit: 1.1.2007–31.12.2009 Förderer: Siemens Medical Solutions Kontakt: Michael Balda, M. Sc. Tel.: +49 9131 85 25247 Fax: +49 9131 303811 E-Mail: [email protected] Die spektrale Detektion von Röntgenstrahlung hat das Potential, einen wichtigen Beitrag zur Schaffung neuer medizinischer Applikationen in der Computertomographie zu leisten. Dabei ist das Wechselspiel zwischen der Messgüte des Detektors und der resultierenden Bildqualität äußerst komplex. Im Rahmen dieses Forschungsprojekts soll die komplette CT-Bildkette von der Detektordatenerfassung über die Rekonstruktion bis zur Beschreibung der Bildqualität entwickelt werden. Es soll untersucht werden, ob durch eine genaue Beschreibung und Korrektur der CT-Messung eine quantitativ genaue CT möglich ist. Die Bildkette soll dabei zugleich zur Überprüfung und Optimierung der spektralen Messeigenschaften des Detektors genutzt werden. 9.6.21 Schlaganfallrisikoindexberechnung Projektleitung: Prof. em. Dr.-Ing. Heinrich Niemann Beteiligte: Ing. Radim Chrastek Dipl.-Inf. Rüdiger Bock Laufzeit: 1.1.1998–31.12.2006 Mitwirkende Institutionen: Augenklinik mit Poliklinik Kontakt: Dipl.-Inf. Rüdiger Bock Tel.: +49 9131 85 27882 Fax: +49 9131 303811 E-Mail: [email protected] Das Ziel dieses Projektes ist die Erkennung eines nahenden Schlaganfalles. Ein Forschungsteam der Universitäten Wisconsin-Madison und North Carolina hat belegt, dass eine Verengung der Arterien des Augenhintergrundnetzes mit einem bevorste171 henden Hirninfarkt verbunden ist. Als Maßzahl für arterielle Verengung in der Retina und gleichzeitig als Gefährdungsindex wurde von unseren medizinischen Partnern (Augenklinik Erlangen) vorgeschlagen, die gewichteten durchschnittlichen Durchmesser der Arterien durch die gewichteten durchschnittlichen Durchmesser der Venen zu dividieren. Im Gegensatz zu dem US-Forschungsteam, das den Gefährdungsindex halbautomatisch ermittelt, soll der Gefährdungsindex im Rahmen dieses Projektes automatisch berechnet werden. Der Algorithmus besteht aus 6 Modulen: Einlesen und Vorverarbeiten des Bildes, Papillen- und Makulasegmentierung (Papille bezeichnet die Stelle, an der der Sehnnerv das Auge verlässt; die Makula bezeichnet die Stelle des schärfsten Sehens), Segmentierung des Gefäßbaumes, Klassifikation der Gefäße in Arterien und Venen, Vermessung der Gefäßdurchmesser und Berechnung des Gefährdungsindex. Nachdem das Netzhautfoto eingelesen wird, werden die Gefäße durch die sog. Isolinie (in Analogie zur Geographie) grob segmentiert. Sie werden dann für die Papillensegmentierung verwendet. Die Papillen- und Makulasegmentierung dient zur Bestimmung der Vermessungszonen und zur Ausblendung der Bereiche, in denen die Gefäße nicht segmentiert werden sollen. Die Papille wird aufgrund der Helligkeitsunterschiede und der Konvergenz des Gefäßbaumes ermittelt. Die Makula wird mit Hilfe des anatomischen Wissens ermittelt. Sie liegt 2 bis 3 Papillenradien temporal (d.h. Richtung Schläfen) von der Papillengrenze. Dann wird der gesamte Gefäßbaum segmentiert. Die Segmentierung basiert auf Isoliniendetektion, Parallelverlauf des Gefäßrandes, Kontrasten und anatomischen Eigenschaften (z.B.: Arterien kreuzen nie andere Arterien; Venen kreuzen nie andere Venen). Für die Klassifikation der Gefäße in Arterien und Venen wird der Kontrast im roten Kanal und die Information aus dem Gefäßbaum genutzt. Falls sich 2 Gefäße kreuzen, ist das dunklere Gefäß fast immer die Vene. Für die Berechnung des Gefährdungsindex werden die 6 größten Arterien und die 6 größten Venen herangezogen. Die Segmentierung des gesamten Gefäßbaumes wird demnächst abgeschlossen werden. Die Entwicklung der anderen Module ist abgeschlossen. 9.6.22 Segmentierung und Multi-Modale 3D Registrierung von CT, SPECT und Ultraschall Projektleitung: Prof. Dr.-Ing. Joachim Hornegger Beteiligte: Dipl.-Inf. Dieter Hahn Dipl.-Inf. Volker Daum Stichwörter: Segmentierung, Registrierung Laufzeit: 1.1.2005–31.12.2008 172 Kontakt: Dipl.-Inf. Dieter Hahn Tel.: +49 9131 85 27874 Fax: +49 9131 303811 E-Mail: [email protected] Segmentierung Multi-Modaler Volumendaten Als Aufgabenstellungen haben sich unter anderem die Segmentierung und Registrierung multi-modaler Volumendaten ergeben. Im Rahmen des Segmentierungsprojekts lautet die Zielstellung, Schilddrüsendaten in 3D Ultraschallbildern (US) zu klassifizieren. Wegen der schlechten Bildqualität, bedingt durch verrauschte Bildsignale, ist dieser Ansatz ohne eine adäquate Vorverarbeitung nicht zu bewältigen. Untersucht wurden hierfür bislang mehrere numerische und heuristische Techniken zur Bildverbesserung wie z.B. Varianten der anisotropen Diffusion, Mumford-Shah basierte Ansätze und morphologische Filter. Einige dieser Methoden wurden in der Arbeit von Kollorz et. al.: ”Quantification of Thyroid Volume Using 3-D Ultrasound Imaging” ausführlich evaluiert. Beim Ansatz der Segmentierung mit Level Sets kommt es dabei vor allem auf die Kantenerhaltung an. Eine quantitative Analyse geeigneter Filter ließ hierbei einen klaren Vorteil auf Seiten des anisotropen, kantenverstärkenden Diffusionsfilters erkennen. Weiterhin wurden Alternativen zur Level Set Segmentierung untersucht. Zur Segmentierung von Nieren und Nierenzysten bei Patienten mit Autosomal Dominant Polycystic Kidney Disease (ADPKED) wurde der Random Walk Algorithmus implementiert. Es werden derzeit auch Algorithmen evaluiert, die Vorwissen über die Form des zu Segmentierenden Organs einbringen. Eine entsprechende Veröffentlichung wird gegenwärtig begutachtet. Experimente haben gezeigt, dass sogenannte Active Shape Models die Robustheit der automatischen Algorithmen erhöhen und gleichzeitig die notwendige manuelle Interaktion verringern. Multi-Modale Bildregistrierung Die hierbei zusätzlich zu den Intensitäten gewonnene Information wird im zweiten Projekt eingesetzt: der multi-modalen Registrierung von CT (Computed Tomography), SPECT (Single Photon Emission Computed Tomography) und US. Die 3D Ultraschallbildgebung ist im Vergleich zu CT oder SPECT ein relativ kostengünstiges Verfahren, das zunehmend in den Kliniken eingesetzt wird. Derzeit liegt ein Hauptanwendungsgebiet in der Pränataldiagnostik, die Technik ist jedoch vielseitig für die Aufnahme morphologisch begrenzter Regionen geeignet. Im Projekt: ”Dreidimensionalen Subtraktions-Ultraschallbildgebung und -verarbeitung zur verbesserten Diagnostik von Schilddrüsenkrankheiten und insbesondere von Schilddrüsenkrebs” ist ein entsprechender DFG Antrag formuliert, der einen Bearbeitungszeitraum von drei Jahren vorsieht. Registrierung ist ein elementarer Schritt in der Analyse multi-modaler Bilder. Derzeit 173 werden mehrere starre und nicht-starre Registrieralgorithmen im Rahmen dieses Projektes entwickelt. Bei der starren (nur Translation und Rotation der Bilder zueinander) Registrierung liegt der Schwerpunkt auf einer hohen Geschwindigkeit, Genauigkeit und Robustheit. Um die Geschwindigkeit gegenüber einem aktuellen starren Registrierungsalgorithmus zu verbessern wurde ein neuer, projektionsbasierter Ansatz entwickelt, der eine Zerlegung der Optimierung der Transformation in eine sequentielle Optimierung der einzelnen Parameter erlaubt. Nicht-starre Registrierungsalgorithmen wurden implementiert und erfolgreich in der SPECT-Differenzbildgebung von Inter- und Intraiktalen Daten von Epilepsie Patienten eingesetzt. Zukünftig wird ein Fokus dieses Projektes die Integration von Vorwissen in Form von Segmentierungsergebnissen in die Registrieralgorithmen sein. Besonders im Bereich der nicht-starren Registrierung könnte dieses Vorwissen als zusätzliche Regularisierung dienen und dadurch vor allem die Robustheit der Algorithmen erhöhen. Ein weiterer wichtiger Punkt für die weitere Forschung wird auch die Evaluierung der Genauigkeit der erzielten Ergebnisse sein. Es wird in diesem Projekt vor allem Wert auf die Zusammenarbeit des Lehrstuhls für Mustererkennung (Prof. Dr.-Ing. J. Hornegger) mit klinischen Instituten gelegt. Dazu zählen unter anderem die Nuklearmedizinische Klinik mit Poliklinik (Prof. Dr. med. T. Kuwert) und die Abteilung Spezial-Ambulanz für Pränatale Diagnostik m. spez. Ultraschall (Prof. Dr. med. R. Schild) der Frauenklinik (Prof. Dr. med. W. Beckmann) an der Universität Erlangen-Nürnberg. Publikationen – Kollorz, Eva ; Hahn, Dieter ; Linke, Rainer ; Goecke, Tamme ; Hornegger, Joachim ; Kuwert, Torsten: Quantification of Thyroid Volume Using 3-D Ultrasound Imaging . In: IEEE Transactions on Medical Imaging (2008) – Daum, Volker ; Helbig, Holger ; Janka, Rolf ; Eckardt, Kai-Uwe ; Zeltner, Raoul: Quantitative Measurement of Kidney and Cyst Sizes in Patients with Autosomal Dominant Polycystic Kidney Disease(ADPKD) . In: Hornegger, Joachim ; Mayr, Ernst W. ; Schookin, Sergey ; Feußner, Hubertus ; Navab, Nassir ; Gulyaev, Yuri V. ; Höller, Kurt ; Ganzha, Victor (Hrsg.) : 3rd Russian-Bavarian Conference on Biomedical Engineering (3rd Russian-Bavarian Conference on Biomedical Engineering Erlangen 2.-3.07.2007). Bd. 1. Erlangen : Union aktuell, 2007, S. 111115. – ISBN 3-921713-33-1 – Daum, Volker ; Hahn, Dieter ; Hornegger, Joachim: A Nonlinear Projection Scheme for Fast Rigid Registration . In: Frey, Eric C. (Hrsg.) : IEEE Nuclear Science Symposium and Medical Imaging Conference Record (IEEE Medical Imaging Conference Honolulu October 2007). 2007, S. 4022-4026. 174 – Hahn, Dieter ; Daum, Volker ; Hornegger, Joachim ; Kuwert, Torsten: Comparison of Differences between Intra- and Inter-Ictal SPECT Images with MRI using Registration Techniques . In: Deutsche Gesellschaft für Nuklearmedizin (DGN) (Veranst.) : Nuklearmedizin Kongressausgabe 02/07 (45. Jahrestagung der Deutschen Gesellschaft für Nuklearmedizin Hannover 25. April 2007). 2007, S. A59. – Wolz, Gabriele ; Nömayr, Anton ; Hothorn, Torsten ; Hornegger, Joachim ; Römer, Wolfgang ; Bautz, Werner ; Kuwert, Torsten: Comparison of performance between rigid and non-rigid software registering CT to FDG-PET . In: International Journal of Computer Assisted Radiology and Surgery 2 (2007), Nr. 3-4, S. 183-190 – Hahn, Dieter ; Daum, Volker ; Hornegger, Joachim ; Bautz, Werner ; Kuwert, Torsten: Difference Imaging of Inter- and Intra-Ictal SPECT Images for the Localization of Seizure Onset in Epilepsy . In: Frey, Eric C. (Hrsg.) : IEEE Nuclear Science Symposium and Medical Imaging Conference Record (IEEE Medical Imaging Conference Honolulu October 2007). 2007, S. 4331-4335. 9.6.23 Segmentierung von Organen für Perfusions-CT Projektleitung: Prof. Dr.-Ing. Joachim Hornegger Dr.-Ing. Grzegorz Soza (Siemens) Beteiligte: Dipl.-Inf. Andreas Wimmer Stichwörter: Perfusions-CT; Segmentierung von Organen; Registrierung Laufzeit: 1.6.2006–31.5.2009 Förderer: Siemens Medical Solutions Kontakt: Dipl.-Inf. Andreas Wimmer Tel.: +49 9131 85 27799 Fax: +49 9131 303811 E-Mail: [email protected] Dieses Forschungsprojekt hat die Entwicklung und Evaluation von Methoden zur Segmentierung von Organen des Abdomens in Perfusionscomputertomographie (Perfusions-CT) Aufnahmen zum Ziel. Die Perfusionsbildgebung hat sich in den letzten Jahren zu einem wichtigen diagnostischen Werkzeug für Schlaganfall- und Tumorpatienten entwickelt. Bei einem Schlag175 anfall ist die Perfusion des betroffenen Gebietes reduziert; im Gegensatz dazu ist die Perfusion für Tumore aufgrund der Neovaskularisierung erhöht. In den letzten Jahren hat sich die Forschung auch auf Perfusionsanalysen für Organe des Abdomens konzentriert. Bei der Perfusions-CT wird ein Kontrastmittel in die Blutversorgung des zu untersuchenden Gebietes injiziert und dessen zeitliche Ausbreitung untersucht. Bildverarbeitungsmethoden sind erforderlich, um automatisch das Gebiet des zu untersuchenden Organs zu bestimmen. Dies ist eine anspruchsvolle Aufgabe, da unterschiedliche Organe des Abdomens ähnliche Intensitätswerte in CT Aufnahmen aufweisen, was die Unterscheidung der einzelnen Gewebeklassen schwierig gestaltet. Zusätzlich müssen Organbewegungen und Deformationen, die zum Beispiel aufgrund von Atmung entstehen, durch Bildregistrierung kompensiert werden, um eine genaue Perfusionsanalyse zu erhalten. Das Ziel des Projekts besteht darin, Bildverarbeitungsmethoden zu entwickeln, die schnell, genau und robust sind, und die nur wenig Benutzerinteraktion erfordern, um Ansprüchen an den klinischen Arbeitsablauf gerecht zu werden. Dieses Forschungsprojekt wird von unserem Industriepartner Siemens Medical Solutions unterstützt. 9.6.24 SFB 539, A4: Automatisches Glaukom-Screening Projektleitung: Prof. Dr.-Ing. Joachim Hornegger Prof. Dr. Georg Michelson PD Dr.rer.nat. Berthold Lausen Beteiligte: Dipl.-Inf. Jörg Meier Dipl.-Inf. Rüdiger Bock Dr. rer. biol. hum. Werner Adler Nyul, Laszlo Dr. med. Simone Wärntges Stichwörter: Glaukom; optischer Sehnervenkopf; Segmentierung; Operationen; Hugh-Transformation; aktive Konturen Laufzeit: 1.7.2003–30.6.2009 Förderer: Deutsche Forschungsgemeinschaft Kontakt: Dipl.-Inf. Rüdiger Bock Tel.: +49 9131 85 27882 176 morphologische Fax: +49 9131 303811 E-Mail: [email protected] Der Lehrstuhl für Mustererkennung befasst sich im Rahmen des SFB 539 Teilprojekt A4 (http://www.sfb539.forschung.uni-erlangen.de ) mit automatischen Verfahren zur Glaukomfrüherkennung. Die Analyse basiert auf zwei Modalitäten zur Aufnahme der retinalen Papillenregion: (i) Der Heidelberg Retina Tomograph II (HRT II) nutzt das Prinzip der konfokalen Mikroskopie zur Generierung von Reflektions- und Topografiebildern des Augenhintergrundes. Zur anschliessenden Auswertung der Aufnahme durch die Produktsoftware, wird eine manuelle Kontur des Papillenrandes benötigt. (ii) Die Kowa NonMyd Kamera akquiriert eine hochauflösende Farbfotografie des Fundus. In der vorangegangenen Förderperiode wurde eine automatische Papillenrandsegmentierung auf HRT-Bildern entwickelt. Das Verfahren wurde in Kooperation mit der Augenklinik evaluiert und wird nun im klinischen Alltag eingesetzt. Damit kann auf die manuelle Segmentierung der Papillenkontur verzichtet werden und die Auswertung der Papille durch den HRT voll automatisch ablaufen. Die Güte des Klassifikationsergebnisses hängt unter anderem stark von der Genauigkeit der Segmentierung ab. Aufgrund der hohen Varianz der Bilddaten kommt es in diesem Schritt gelegentlich zu nicht ausreichender Segmentierung. Geringe Fehleinschätzungen der Segmentierung können in diesem Fall gravierende Auswirkungen auf das Klassifikationsergebnis haben. In der aktuellen Förderperiode werden toleranter Verfahren zur Glaukomerkennung entwickelt werden, die die diagnostische Herangehensweise des Augenarztes nachzubilden. Dieses Vorgehen basiert weniger auf der exakten Vermessung der Papille und interessanter Regionen als auf dem Abgleich des zu diagnostizierenden Bildes mit Erfahrungswerten. Hierzu wurden erscheinungsbasierte Verfahren wie z.B. Hauptachsentransformation, lineare Diskriminanzanalyse oder Independent Component Analysis verwendet. Als Eingabedaten der genannten Methoden wurden die Intensitätswerte der Bildpixel genutzt, um eine dimensionsreduzierte Darstellung der Eingangsbilder zu erhalten. Es hat sich gezeigt, dass die Variationen des Gefässbaumes und der Papille die Veränderungen durch Glaukom zu stark überdecken und damit keine brauchbaren Merkmale extrahiert werden konnten. Ein Ausschluss des Gefässbaumes und einer Normalisierung des Papillenrandes zeigte stark verbesserte aber keine zufriedenstellenden Ergebnisse. Es wurde auf die, in diesem Forschungsprojekt entwickelte, Gefäss- und Papillensegmentierung zurückgegriffen. Im weiteren Verlauf des Forschungsprojektes sollen abstraktere, aber weiterhin bildbasierte Eingabedaten mit geringerer Lokalität verwendet werden, um die Problematik der örtlichen Variation zu verringern. 177 Publikationen – Bock, Rüdiger ; Meier, Jörg ; Nyúl, László G. ; Wärntges, Simone ; Michelson, Georg ; Hornegger, Joachim: Appearance-based Approach to Extract an Agerelated Biomarkers from Retinal Images . In: Hornegger, Joachim ; Mayr, Ernst W. ; Schookin, Sergey ; Feußner, Hubertus ; Navab, Nassir ; Gulyaev, Yuri V. ; Höller, Kurt ; Ganzha, Victor (Hrsg.) : 3rd Russian-Bavarian Conference on Biomedical Engineering (3rd Russian-Bavarian Conference on Biomedical Engineering Erlangen 2.-3.07.2007). Bd. 1. Erlangen : Union aktuell, 2007, S. 127-131. – Meier, Jörg ; Bock, Rüdiger ; Michelson, Georg ; Nyúl, László G. ; Hornegger, Joachim: Effects of Preprocessing Eye Fundus Images on Appearance Based Glaucoma Classification . In: Kropatsch, Walter G. ; Kampel, Martin ; Hanbury, Allan (Hrsg.) : 12th International Conference on Computer Analysis of Images and Patterns, CAIP. Lecture Notes in Computer Science (LNCS) 4673 (12th International Conference on Computer Analysis of Images and Patterns (CAIP) Vienna 27-29 Aug. 2007). Bd. 4673/2007. Berlin : Springer, 2007, S. 165-173. ISBN 978-3-540-74271-5 – Meier, Jörg ; Bock, Rüdiger ; Nyúl, László G. ; Michelson, Georg: Eye Fundus Image Processing System for Automated Glaucoma Classification . In: Scharff, Peter (Hrsg.) : 52. Internationales Wissenschaftliches Kolloquium: Computer Science meets automation (Internationales Wissenschaftliches Kolloquium: Computer Science meets automation Ilmenau 10-13 September). Bd. 2. Ilmenau : TU Ilmenau Universitätsbibliothek, 2007, S. 81-85. – ISBN 978-3-939473-17-6 – Bock, Rüdiger ; Meier, Jörg ; Michelson, Georg ; Nyúl, László G. ; Hornegger, Joachim: Classifying Glaucoma with Image-Based Features from Fundus Photographs . In: Hamprecht, Fred A. ; Schnörr, Christoph ; Jähne, Bernd (Hrsg.) : 9th Annual Symposium of the German Association for Pattern Recognition, DAGM. Lecture Notes in Computer Science (LNCS) 4713 (DAGM Heidelberg 12-14 Sept. 2007). Bd. 4713/2007. Berlin : Springer, 2007, S. 355-365. – ISBN 9783-540-74933-2 – Bock, Rüdiger ; Meier, Jörg ; Nyúl, László G. ; Michelson, Georg ; Hornegger, Joachim: Retina Image Analysis System for Glaucoma Detection . In: Ges. f. Biomed.Technik (Hrsg.) : Biomedizinische Technik, BMT 2007 (41. Jahrestagung der Deutschen Gesellschaft für Biomedizinische Technik Aachen 26-29 September). Bd. 52. Aachen : Walter de Gruyter, 2007, S. CD-ROM. 178 9.6.25 SFB 603, B2: Optimierungsansatz für die Integration von Kamerabildern bei der Klassifikation Projektleitung: Prof. em. Dr.-Ing. Heinrich Niemann Beteiligte: Dipl.-Ing. Christian Derichs Dipl.-Inf. Benjamin Deutsch Stichwörter: Optimierung; Sensordatenfusion; Objektverfolgung; Objektklassifikation Laufzeit: 1.1.1998–31.12.2007 Förderer: Deutsche Forschungsgemeinschaft Kontakt: Dipl.-Inf. Benjamin Deutsch E-Mail: [email protected] Das langfristige Ziel des Teilprojektes B212 des Sonderforschungsbereiches 60313 ist die Entwicklung von optimierungsbasierten Verfahren für die Integration von Kamerabildern bei der Klassifikation, Lokalisation und Verfolgung von Objekten. Die Darstellung des Wissens über das System basiert dabei immer auf einem probabilistischen Ansatz, welcher durch die Fusion aller zur Verfügung stehenden Informationsquellen generiert und ständig erneuert wird. Entscheidend für die Güte von Schätzungen bezüglich Objektklasse, -lage und -position ist dabei das aktive Vorgehen bei der Sensordatenakquisition. In der Vergangenheit wurde der Großteil der Arbeit in die theoretische Optimierung der Methoden zur aktiven Ansichtenauswahl sowie zur aktiven Objektverfolgung investiert. Obwohl identische informationstheoretische Ansätze verwendet werden, wurden diese beiden Bereiche des Teilprojektes B2 hauptsächlich unabhängig voneinander optimiert. Mit der zunehmenden Integration von Objektverfolgung und -klassifikation in ein gemeinsames System ist nun auch der wechselseitige Informationsaustausch und damit die gegenseitige Unsicherheitsreduktion der beiden Teilbereiche ermöglicht worden. Bezüglich der Ansichtenplanung zur effizienten Objekterkennung wurde erhöhter Wert auf die Handhabung dünn besetzter initialer Objektmodelle, d.h. Datensätzen mit Information über nur wenige Ansichten des Objektes, gelegt. Auf solchen Modellen ist es u.U. nicht sinnvoll, direkt mit der eigentlichen Aufgabe einer zielstrebigen Klassifikation zu beginnen, da die zu Grunde liegenden Daten hinsichtlich einer Klassendiskriminierbarkeit recht unzuverlässig sind. Stattdessen wird das vorhandene Objektmo12 URL: 13 URL: http://sfb-603.uni-erlangen.de/HTML/TEILPROJEKTE/B2/tpB2 home g.html http://sfb-603.uni-erlangen.de/ 179 dell durch aktives Lernen, d.h. wiederum aktive Ansichtenauswahl, selektiv erweitert. Anders als bei der klassifikationsspezifischen Strategie zur Ansichtenauswahl wird zur Verbesserung des Modells weder eine Trainingsphase noch eine nur probabilistische Annahme über die Objektklasse und -lage eingesetzt. Vielmehr wird eine optimale Sensorbewegung durch das Ausnutzen von Unsicherheitskriterien über das aktuelle Modellwissen generiert. Entscheidend ist hierbei, dass die Modellverbesserung als Zielfunktion stets die Maximierung der zu erwartenden Klassifikationsrate heranzieht. Um dabei nicht nur die Anzahl der zu beachtenden Objektmerkmale reduzieren, sondern auch deren jeweilige Bedeutung für die Klassendiskriminierbarkeit berücksichtigen zu können, wurden sowohl PCA-transformierte Eigenraummerkmale als auch Wavelet-Merkmale evaluiert. Ein weiterer Aspekt, der wiederum mit der aktiven Ansichtenauswahl mittels Reinforcement Learning zusammenhängt, ist der Vergleich von Zustandsdichten. Letztere geben eine probabilistische Beschreibung für die Schätzung der aktuellen Kameraparameter relativ zum betrachteten Objekt, sowie dessen Klasse wider. Die vielfache Berechnung der Ähnlichkeit zweier Zustandsdichten, welche durch Partikelmengen repräsentiert werden, ist aufgrund der notwendigen Parzen-Schätzung und der Berechnung des Kullback-Leibler Abstandes sehr zeitaufwändig. Deshalb wurde ein Verfahren entwickelt, welches aufgrund einer Kombination schnell berechenbarer Dichtenparameter, wie etwa dem Schwerpunkt und der Entropie, Dichtenpaare frühzeitig von der detaillierteren Ähnlichkeitsberechnung ausschließen kann. Um weitere Rechenzeit einzusparen, wurden erfolgreich Methoden realisiert, die den Optimierungssuchraum der Sensorbewegung initial einschränken, sowie die Anzahl der zu verwendenden Partikel optimieren. Die Arbeiten im Teilbereich der aktiven Objektverfolgung wurden fortgeführt. Es wurden nicht nur Kameras mit einer elektrisch verstellbaren Brennweite, sondern zusätzlich auch mit Schwenk-Neige-Einheiten eingesetzt, um den potentiellen Sichtbereich der Kameras zu erhöhen. Dabei konnte die Linearisierung des Sichtbarkeitsbaumes und die Auswertung mittels sequentiellem Kalman Filter an die erweiterte Problematik angepasst werden. Dadurch kann die optimale Aktionsauswahl weiterhin über mehrere Zeitschritte mit einer variablen Kamerazahl und in Echtzeit erfolgen. Zusätzlich wurde die Verbindung zwischen der Objektverfolgung und der Objekterkennung weiter ausgebaut. In der simultanen Objektverfolgung und Klassifikation wurde einerseits ein Objekt schritthaltend verfolgt und andererseits mit einer geringeren Bildrate seine Klasse und Lage bestimmt. Dabei wurde die Verfolgung mit einem Farbhistogrammabgleich durchgeführt, während die Erkennung über eine Wavelet-Zerlegung oder über den Abgleich mit einem aus einem Lichtfeld generierten Bild erfolgte. Durch die Verfolgung konnte der Suchraum für die Objekterkennung deutlich reduziert werden. 180 Als neues Thema in der Objektverfolgung wurde die Bestimmung des Sensorrauschens mittels adaptivem Kalman Filter und mehrerer Sensoren (Kameras) untersucht. Das Sensorrauschen bildet einen wichtigen Bestandteil der Aktionswahl mittels Kalman Filter. Die Einbettung der Ergebnisse in die aktive optimale Aktionswahl in der Objektverfolgung steht aber noch aus. In einer Diplomarbeit wurde die Informationsfusion aus sich bewegenden und statischen Sensoren untersucht. Dabei bewegt sich ein Roboter (in dieser Arbeit vom Typ ”Volksbot”) durch eine Szene und soll ein vom Benutzer ausgewähltes Objekt erreichen und per Nahaufnahme klassifizieren. Der Roboter verfügt über eine omnidirektionale Kamera, in der das Objekt relativ zum Roboter verfolgt werden kann. Die Szene wird zusätzlich von mehreren statischen Kameras betrachtet, welche die Positionen von Roboter und Objekt (aber nicht die Ausrichtung des Roboters) in einem globalen Koordinatensystem ermitteln. Die Information aus beiden Sensorsystemen wurde fusioniert, um den Roboter zum Ziel zu führen. Wie anzunehmen, ist diese Aufgabe unter Verwendung der roboterinternen omnidirektionalen Kamera unproblematisch. Wird diese Kamera deaktiviert, so konnte alleine durch die statischen, externen Kameras trotzdem ein Heranführen des Roboters an das Objekt erreicht werden. Eines der Hauptprobleme dabei war die Bestimmung der Ausrichtung des Roboters, da diese nicht direkt gemessen werden konnte. Publikationen – Deutsch, Benjamin ; Deinzer, Frank ; Zobel, Matthias ; Denzler, Joachim: Active Sensing Strategies for Robotic Platforms, with an Application in Vision-Based Gripping . In: Araújo, H. ; Vieira, A. ; Braz, J. ; Encarnação, B. ; Carvalho, M. (Hrsg.) : INSTICC (Veranst.) : Proceedings of the 1st International Conference on Informatics in Control, Automation and Robotics (1st International Conference on Informatics in Control, Automation and Robotics Setúbal). Bd. 2. Setúbal, : INSTICC Press, 2004, S. 169–176. – Wenhardt, Stefan ; Deutsch, Benjamin ; Hornegger, Joachim ; Niemann, Heinrich ; Denzler, Joachim: An Information Theoretic Approach for Next Best View Planning in 3-D Reconstruction . In: Tang, Y.Y. ; Wang, S.P. ; Lorette, G. ; Yeung, D.S. ; Yan, H. (Hrsg.) : The 18th International Conference on Pattern Recognition (18th International Conference on Pattern Recognition (ICPR 2006) Hong Kong 20 – 24 August, 2006). Bd. 1. Los Alamitos, California, Washington, Tokyo : IEEE Computer Society, 2006, S. 103-106. (IEEE Computer Society Order Number P2521) – ISBN 0-7695-2521-0 – Deinzer, Frank ; Denzler, Joachim ; Derichs, Christian ; Niemann, Heinrich: Aspects of Optimal Viewpoint Selection and Viewpoint Fusion . In: Narayanan, 181 P.J. ; Nayar, Shree K. ; Shum, Heung-Yeung (Hrsg.) : Computer Vision – ACCV 2006 (Asian Conference on Computer Vision 2006 Hyderabad, India 13.16.1.2006). Bd. 2. Berlin : Springer, 2006, S. 902-912. (Lecture Notes in Computer Science Bd. 3852) – ISBN 3-540-31219-6 – Derichs, Christian ; Niemann, Heinrich: Handling Camera Movement Constraints in Reinforcement Learning Based Active Object Recognition . In: Franke, K. ; Müller, K.-R. ; Nickolay, B. ; Schäfer, R. (Hrsg.) : Pattern Recognition – 28th DAGM Symposium (DAGM 2006 – 28th Symposium of the German Association for Pattern Recognition Berlin 12.-14.9.2006). Berlin : Springer, 2006, S. 637646. (Lecture Notes in Computer Science Bd. 4174) – ISBN 3-540-44412-2 – Deinzer, Frank ; Denzler, Joachim ; Derichs, Christian ; Niemann, Heinrich: Integrated Viewpoint Fusion and Viewpoint Selection for Optimal Object Recognition . In: Chanteler, M.J. ; Trucco, E. ; Fisher, R.B. (Hrsg.) : British Machine Vision Conference 2006 (British Machine Vision Conference 2006 Edinburgh 4.-7.9.2006). Bd. 1. Malvern Worcs, UK : BMVA, 2006, S. 287-296. – ISBN 1904410-14-6 – Deutsch, Benjamin ; Wenhardt, Stefan ; Niemann, Heinrich: Multi-Step MultiCamera View Planning for Real-Time Visual Object Tracking . In: Franke, K. ; Müller, K.-R. ; Nickolay, B. ; Schäfer, R. (Hrsg.) : Pattern Recognition – 28th DAGM Symposium (DAGM 2006 – 28th Symposium of the German Association for Pattern Recognition Berlin 12.-14.9.2006). Berlin Heidelberg : Springer, 2006, S. 536-545. (Lecture Notes in Computer Science Bd. 4174) – ISBN 3-540-444122 9.6.26 SFB 603, B6: Rechnergestützte Endoskopie des Bauchraums Projektleitung: Prof. Dr. med. Werner Hohenberger Prof. Dr.-Ing. Joachim Hornegger Prof. Dr. Günther Greiner PD Dr. med. Thomas Horbach Dr. med. Sophie Krüger Beteiligte: Dipl. Med.-Inf. Jochen Penne Dipl.-Inf. Marco Winter Dipl.-Ing. Kurt Höller Stichwörter: Endoskopie; Minimal-invasive Operation; 3-D-Visualisierung; Lichtfeld; 182 Registrierung; Bildverbesserung; MUSTOF-Endoskop Laufzeit: 1.1.2000–31.12.2007 Förderer: Deutsche Forschungsgemeinschaft Mitwirkende Institutionen: Chirurgische Universitätsklinik Erlangen Lehrstuhl für Graphische Datenverarbeitung Erlangen Kontakt: Dipl. Med.-Inf. Jochen Penne Tel.: +49 9131 85 25246 Fax: +49 9131 303811 E-Mail: [email protected] Im Teilprojekt B6 wurden Algorithmen für MUSTOF (Multisensor-Time-of-Flight) Endoskope entwickelt und die Herstellung eines Prototypen betreut. Während die Herstellung des Prototypen von der Richard Wolf GmbH durchgeführt wird, wurden grundlegende Algorithmen für die medizinische Applikation eines MUSTOF Endoskopes entwickelt. Dies waren Algorithmen für die Kalibrierung, Registrierung der in einem MUSTOF Endoskop involvierten Bildsensoren und die Rekonstruktion statischer Szenen. Diese Algorithmen stellen ein Proof-of-Concept für die Handhabung der Daten, die mit einer TOF Kamera akquiriert wurden, dar: die Kalibrierung verbessert die Rekonstruktionsgenauigkeit, die Registrierung der Bildsensoren ermöglicht die photorealistische Rekonstruktion und die zeitnahe Registrierung konsekutiv akquirierter Daten ermöglicht die Rekonstruktion komplexer statischer Szenen. Diese Algorithmen stellen eine wertvolle Basis für die Entwicklung eines MUSTOF Endoskopes dar, da sie sicherstellen, dass wenn die entsprechenden Daten vom Endoskop akquiriert werden, wertvolle beiträge für medizinische Applikationen bereitgestellt werden können: die Registrierung von Oberflächeninformationen mit Daten anderer prä-/intraoperativer Modalitäten (CT/MR) erlaubt die intraoperative Bereitstellung von Augmented Reality. Desweiteren kann das Operationsgebiet in 3-D exploriert, navigiert und vermessen werden ohne das Endoskop tatsächlich zu bewegen. Verschiedene andere Ideen wurden von klinischen Partnern vorgeschlagen: die Kollosionsdetektion und Positionierung des Endoskopes relativ zu einer spezifizierten Anatomie des Operationsgebietes bietet Vorteile für den Patienten (geringeres Verletzungsrisiko) und für den Chirurgen (bessere Perzeption der Anatomie des Operationsgebietes). Publikationen – Vogt, Florian ; Krüger, Sophie ; Winter, Marco ; Niemann, Heinrich ; Hohenberger, Werner ; Greiner, Günther ; Schick, Christoph: Erweiterte Realität und 183 3-D Visualisierung für minimal-invasive Operationen durch Einsatz eines optischen Trackingsystems . In: Meinzer, H.-P. ; Handels, H. ; Horsch, A. ; Tolxdorff, T. (Hrsg.) : Proceedings Bildverarbeitung für die Medizin (Bildverarbeitung für die Medizin Heidelberg 13.-15.3.2005). Berlin : Springer, 2005, S. 217-221. ISBN 3-540-25052-2 – Winter, Marco ; Greiner, Günther ; Vogt, Florian ; Niemann, Heinrich ; Krüger, Sophie: Visualizing distances between light field and geometry using projective texture mapping . In: Greiner, Günther ; Hornegger, Joachim ; Niemann, Heinrich ; Stamminger, Marc (Hrsg.) : Proceedings of the Workshop Vision, Modeling, and Visualization (Workshop Vision, Modeling, and Visualization Erlangen 16.18.11.2005). St. Augustin : Infix, 2005, S. 257-264. – ISBN 3-540-25052-2 – Wilhelm, D. ; Penne, Jochen ; Meining, Alexander ; Hornegger, Joachim ; Feußner, Hubertus: An Innovative, Safe and Sterile Sigmoid Access for NOTES (ISSA) . In: Hornegger, Joachim ; Mayr, Ernst W. ; Schookin, Sergey ; Feußner, Hubertus ; Navab, Nassir ; Gulyaev, Yuri V. ; Höller, Kurt ; Ganzha, Victor (Hrsg.) : 3rd Russian-Bavarian Conference on Biomedical Engineering (3rd RussianBavarian Conference on Biomedical Engineering Erlangen 2.-3.07.2007). Bd. 1. Erlangen : Union aktuell, 2007, S. 223-226. – ISBN 3-921713-33-X – Ritt, P. ; Höller, Kurt ; Penne, Jochen ; Schneider, Adam ; Hornegger, Joachim ; Feußner, H.: Auto-Gain Approach for Use with Time-of-Flight Examination in Minimally Invasive Surgery . In: Hornegger, Joachim ; Mayr, Ernst W. ; Schookin, Sergey ; Feußner, Hubertus ; Navab, Nassir ; Gulyaev, Yuri V. ; Höller, Kurt ; Ganzha, Victor (Hrsg.) : 3rd Russian-Bavarian Conference on Biomedical Engineering (3rd Russian-Bavarian Conference on Biomedical Engineering Erlangen 2.-3.07.2007). Bd. 1. Erlangen : Union aktuell, 2007, S. 227-232. – Härtl, F. ; Höller, Kurt ; Beller, S. ; Feußner, Hubertus: Current status of the use of medical robots in Germany, Austria and Switzerland . In: Hornegger, Joachim ; Mayr, Ernst W. ; Schookin, Sergey ; Feußner, Hubertus ; Navab, Nassir ; Gulyaev, Yuri V. ; Höller, Kurt ; Ganzha, Victor (Hrsg.) : 3rd Russian-Bavarian Conference on Biomedical Engineering (3rd Russian-Bavarian Conference on Biomedical Engineering Erlangen 2.-3.07.2007). Bd. 1. Erlangen : Union aktuell, 2007, S. 2-4. – Penne, Jochen ; Höller, Kurt ; Krüger, Sophie ; Feußner, Hubertus: NOTES 3D: Endoscopes learn to see 3-D; Basic Algorithms for a Novel Endoscope . In: Ranchordas, Alpesh Kumar ; Araújo, Helder ; Vitriá, Jordi (Hrsg.) : VISAPP 2007, Second international Conference on Computer Vision Theory and Applications (VISAPP 2007 Barcelona 8.-11.3.2007). Barcelona : Insticc Press, 2007, S. 134139. – ISBN 978-972-8865-75-7 184 9.6.27 SFB 603, C2: Analyse, Codierung und Verarbeitung von Lichtfeldern zur Gewinnung realistischer Modelldaten Projektleitung: Prof. em. Dr.-Ing. Heinrich Niemann Prof. Dr. Günther Greiner Beteiligte: Dipl.-Inf. Ingo Scholz Dr.-Ing. Christian Vogelgsang Stichwörter: SFB 603, C2: Analyse, Modellierung und Verarbeitung von Lichtfdots Laufzeit: 1.1.1998–31.12.2007 Förderer: DFG Mitwirkende Institutionen: Lehrstuhl für Graphische Datenverarbeitung Erlangen Kontakt: Dipl.-Inf. Ingo Scholz Das Teilprojekt C214 des Sonderforschungsbereichs 60315 bearbeitet zusammen mit dem Lehrstuhl für Graphische Datenverarbeitung16 (LGDV) das Thema der ”Analyse, Modellierung und Verarbeitung von Lichtfeldern zur Gewinnung realistischer Modelldaten”. Die in diesem Teilprojekt zentrale Datenstruktur des Lichtfelds erlaubt es, durch sog. bildbasierte Modellierung beliebige Ansichten einer realen Szene zu generieren, deren Aussehen durch eine Sammlung an Bilddaten bekannt ist. Die benötigten Informationen über Parameter und Positionen der verwendeten Kamera werden über Verfahren der ”Struktur aus Bewegung” (Structure from Motion) direkt aus den Bilddaten ermittelt, bei denen es sich im Allgemeinen um einen Bildstrom einer handgeführten Kamera handelt. Weitere Daten können beispielsweise Bilder einer auf einem Roboterarm montierten Kamera sein. Das Teilprojekt C2 wird bereits seit 1998 von der Deutschen Forschungsgemeinschaft17 (DFG) gefördert. Die bei Lichtfeldern übliche Betrachtung von ausschließlich statischen Szenen wurde in den letzten Jahren immer mehr auch auf bewegte Szenen erweitert. Die bereits in 2003 begonnenen Arbeiten zur Rekonstruktion von Lichtfeldern aus Szenen, die bewegte, aber in sich starre Objekte enthalten, wurden auch 2005 fortgesetzt. Nach der Trennung von Merkmalen in ”Hintergrund” und ”bewegtes Objekt” können nun die beiden 14 URL: http://sfb-603.uni-erlangen.de/HTML/TEILPROJEKTE/C2/tpC2 home g.html http://sfb-603.uni-erlangen.de/HTML/sfb603 g.html 16 URL: http://www9.informatik.uni-erlangen.de/ 17 URL: http://www.dfg.de/ 15 URL: 185 unabhängig voneinander berechneten 3-D-Rekonstruktionen mit ausreichender Genauigkeit registriert werden. Daraus lässt sich nun die Eigenbewegung des Objekts berechnen. Ähnliche Objektpositionen werden mittels einer Vektorquantisierung jeweils einem Zeitschritt zugeordnet. Die Visualisierung der so entstehenden dynamischen Lichtfelder erfolgt durch sog. Vertrauenskarten (Confidence Maps), die das Ausblenden des bewegten Objekts zu nicht sichtbaren Zeitschritten erlauben. Ein neu entwickeltes Verfahren zur Evaluation der Lichtfeldqualität über die Berechnung des Signal-Rausch-Verhältnisses (SNR) ermöglicht einen objektiven Vergleich verschiedener Verfahren zur Lichtfeldrekonstruktion. Es wurde bereits für Untersuchungen zur Berechnung intrinsischer Kameraparameter und für den Vergleich verschiedener Verfahren zur Berechnung von Tiefeninformation eingesetzt. Dabei wurden auch die erstmals zur Lichtfeldvisualisierung eingesetzten lokalen Proxies, also nur für jede Ansicht lokal gültige Dreiecksnetze, mit herkömmlichen Tiefenkarten verglichen. Des Weiteren wurde das SNR dazu genutzt, die Tiefenkarten eines vorhandenen Lichtfeldes über die Rückkopplung aus der Lichtfeldsynthese zu optimieren. Die Anwendbarkeit der entwickelten Verfahren wurde außerdem in mehreren Kooperationen mit anderen Projekten gezeigt. In Zusammenarbeit mit dem Graduiertenkolleg ”Dreidimensionale Bildanalyse und -synthese”18 wurden 3-DRekonstruktionsalgorithmen zum schnellen Training für die Objekterkennung eingesetzt. Im Teilprojekt A719 des Sonderforschungsbereichs 603 wurden diese Algorithmen für die 3-D-Rekonstruktion von mittels flexibler Endoskope aufgenommenen Bildfolgen eingesetzt. Publikationen – Scholz, Ingo ; Vogelgsang, Christian ; Denzler, Joachim ; Niemann, Heinrich: Dynamic Light Field Reconstruction and Rendering for Multiple Moving Objects . In: Katsushi Ikeuchi (Hrsg.) : Proceedings of the Ninth IAPR Conference on Machine Vision Applications (IAPR Conference on Machine Vision Applications Tsukuba Science City, Japan 16-18.5.2005). Tokyo, Japan : IAPR MVA Conference Committee, 2005, S. 184-188. – ISBN 4-901122-04-5 – Niemann, Heinrich ; Scholz, Ingo: Evaluating the Quality of Light Fields Computed from Hand-held Camera Images . In: Pattern Recognition Letters 26 (2005), Nr. 3, S. 239-249 – Scholz, Ingo ; Denzler, Joachim ; Niemann, Heinrich: Calibration of Real Scenes for the Reconstruction of Dynamic Light Fields . In: IEICE Transactions on 18 URL: 19 URL: http://www9.informatik.uni-erlangen.de/Research/gk244/index.html http://sfb-603.uni-erlangen.de/HTML/TEILPROJEKTE/A7/tpA7 home g.html 186 Information & Systems E87-D (2004), Nr. 1, S. 42-49 9.6.28 SFB 603, C10: Registrierung funktioneller und morphologischer Volumendatensätze Projektleitung: Prof. Dr.-Ing. Joachim Hornegger PD Dr. med. Wolfgang Römer Prof. Dr. med. Torsten Kuwert Prof. Dr. med. Werner Bautz Beteiligte: Jingfeng Han, M. Sc. Stichwörter: Multimodale Bildregistrierung Laufzeit: 1.11.2004–31.12.2007 Förderer: Deutsche Forschungsgemeinschaft Mitwirkende Institutionen: Nuklearmedizinische Klinik Radiologisches Institut Kontakt: Jingfeng Han, M. Sc. E-Mail: [email protected] Die Registrierung und Visualisierung funktioneller und morphologischer Bilddaten sind von herausragender medizinischer und ökonomischer Bedeutung und stellen nach wie vor eine große technische Herausforderung dar. Das Projekt beschäftigte sich mit der Erarbeitung verschiedener Algorithmen zur starren und nicht-starren Bildregistrierung samt ihrer mathematischen Grundlagen, der Implementierung retrospektiver Registrierungsalgorithmen, der Integration dieser neuen Verfahren in ein klinisch einsetzbares System und der systematischen Bewertung derentwickelten Registrierungsverfahren durch Ärzte und Ingenieure. Publikationen – Han, Jingfeng ; Hornegger, Joachim ; Kuwert, Torsten ; Bautz, Werner ; Römer, Wolfgang: Feature Constrained Non-rigid Image Registration . In: Hülsemann, Frank ; Kowarschik, Markus ; Rüde, Ulrich (Hrsg.) : Frontiers in Simulation (18th Symposium on Simulationstechnique, Erlangen 2005 Erlangen 12.-15. Septem- 187 ber 2005). Erlangen : SCS Publishing House e.V., 2005, S. 638-643. – ISBN 3936150-41-9 – Römer, Wolfgang ; Hornegger, Joachim ; Han, Jingfeng ; Bautz, Werner ; Kuwert, Torsten: Non-rigid Fusion of Morphological and Functional Images Using Anatomical Fix Points and Contours – A New Approach to Overcome the Current Drawbacks of Retrospective Image Fusion . In: The Radiological Society of North America (Veranst.) : RSNA2004 (RSNA2004). Chicago, USA : RSNA, 2005, S. 356. – Han, Jingfeng ; Qiao, Min ; Hornegger, Joachim ; Kuwert, Torsten ; Bautz, Werner ; Römer, Wolfgang: Partial Image Data Registration using Stochastic Optimization . In: Hülsemann, Frank ; Kowarschik, Markus ; Rüde, Ulrich (Hrsg.) : Frontiers in Simulation (18th Symposium on Simulationstechnique, Erlangen 2005 Erlangen 12.-15. September 2005). Erlangen : SCS Publishing House e.V., 2005, S. 644-645. – ISBN 3-936150-41-9 – Han, Jingfeng ; Berkels, Benjamin ; Droske, Marc ; Hornegger, Joachim ; Rumpf, Martin ; Schaller, Carlo ; Scorzin, Jasmin ; Urbach, Horst: Mumford–Shah Model for One-to-One Edge Matching . In: IEEE TRANSACTIONS ON IMAGE PROCESSING 16 (2007), Nr. 11, S. 2720-2732 – Han, Jingfeng ; Bennewitz, Christian ; Hornegger, Joachim ; Kuwert, Torsten: Semi-automatical Validation of SPECT/CT Scanners . In: Hornegger, Joachim ; Mayr, Ernst W. ; Schookin, Sergey ; Feußner, Hubertus ; Navab, Nassir ; Gulyaev, Yuri V. ; Höller, Kurt ; Ganzha, Victor (Hrsg.) : 3rd Russian-Bavarian Conference on Biomedical Engineering (3rd Russian-Bavarian Conference on Biomedical Engineering Erlangen 2.-3.07.2007). Bd. 1. Erlangen : Union aktuell, 2007, S. 93-100. – Jäger, Florian ; Han, Jingfeng ; Hornegger, Joachim ; Kuwert, Torsten: A Variational Approach to Spatially Dependent Non-Rigid Registration . In: Reinhardt, Joseph M. ; Pluim, Josien P. W (Hrsg.) : Proceedings of the SPIE, Medical Image Processing (SPIE, Medical Image Processing San Diego CA, USA). Bd. 6144. 2006, S. 860–869. – Han, Jingfeng ; Berkels, Benjamin ; Rumpf, Martin ; Hornegger, Joachim ; Droske, Marc ; Fried, Michel ; Scorzin, Jasmin ; Schaller, Carlo: A Variational Framework for Joint Image Registration, Denoising and Edge Detection . In: Handels, H. ; Ehrhardt, J. ; Horsch, A. ; Meinzer, H.-P. ; Tolxdorff, T. (Hrsg.) : Bildverarbeitung für die Medizin 2006 (Bildverarbeitung für die Medizin BVM 2007 – Algorithmen, Systeme, Anwendungen Hamburg 19. – 21. March 2006). Hamburg : Springer, 2006, S. 246-250. 188 – Han, Jingfeng ; Qiao, Min ; Hornegger, Joachim ; Kuwert, Torsten ; Bautz, Werner ; Römer, Wolfgang: Automatic sub-volume registration by probabilistic random search . In: Reinhardt, Joseph M. ; Pluim, Josien P. W (Hrsg.) : Proc. SPIE Medical Imaging 2006 (The International Society for Oprical Engineering San Diego, USA February 2006). Bd. 6144. 2006, S. 799-807. – Jäger, Florian ; Han, Jingfeng ; Hornegger, Joachim ; Kuwert, Torsten: Wissensbasierte Nicht-Starre Registrierung von SPECT/CT Datensätzen . In: Handels, Heinz ; Ehrhardt, J. ; Horsch, Alexander ; Meinzer, H.-P. ; Tolxdorff, T. (Hrsg.) : Bildverarbeitung für die Medizin 2006 (Bildverarbeitung für die Medizin 2006). Berlin : Springer, 2006, S. 236-240. 9.6.29 SmartWeb Projektleitung: PD Dr.-Ing. habil. Elmar Nöth, Akad. Dir. Beteiligte: Dr. phil. Anton Batliner Dipl.-Inf. Christian Hacker Dipl.-Inf. Florian Hönig Dipl.-Inf. Axel Horndasch Stichwörter: Spracherkennung; OOV-Verarbeitung; Biosignale; Benutzerzustandsklassifikation; multimodale Informationsquellen Laufzeit: 1.4.2004–30.9.2007 Förderer: Bundesministerium für Bildung und Forschung Kontakt: PD Dr.-Ing. habil. Elmar Nöth, Akad. Dir. Tel.: +49 9131 85 27888 Fax: +49 9131 303811 E-Mail: [email protected] Leitinnovation SmartWeb Das Ziel des BMBF-geförderten Projekts SmartWeb (http://www.smartweb-projekt.de/ ) ist der intelligente, multimodale, mobile Zugriff auf das Semantische Web. An der Umsetzung dieser Vision arbeiten seit Mitte 2004 vierzehn Konsortialpartner unter der Führung des Deutschen Forschungsinstituts für künstliche Intelligenz (DFKI). Neben einer Reihe von Universitäten und Forschungseinrichtungen sind auch kleinere und mittlere Unternehmen sowie die Großindustrie beteiligt. 189 Ein großes Teilprojekt in SmartWeb bildet das Semantische Web. Dieses Internet der nächsten Generation basiert auf der inhaltlichen Beschreibung digitaler Dokumente mit standardisierten Vokabularien, die eine maschinell verarbeitbare Semantik haben. In SmartWeb wird vor allem angestrebt, die maschinenlesbaren Inhalte des World Wide Web auch maschinell verarbeitbar zu machen. Die Arbeitspakete, die am Lehrstuhl für Mustererkennung (Informatik 5) bearbeitet werden, sind Teil des zweiten Teilprojekts, das sich mit dem multimodalen, mobilen Zugang zu den Inhalten des Semantischen Webs beschäftigt. Das Architekturmodell von SmartWeb sieht dabei ein Client-ServerSzenario vor, bei dem die Benutzereingaben von einem Endgerät (PDA, Smartphone o.Ä.) zu einem Server geschickt werden, auf dem die Dialogverarbeitung stattfindet. Einen Teil des Dialog-Servers bildet ein multimodaler Erkenner (MME), der neben einem Spracherkenner weitere Software-Module zur Verarbeitung der verschiedenen Eingabemodalitäten (u.a. Sprach- und Videosignale) umfasst. Drei der Module werden am Lehrstuhl für Mustererkennung (LME) entwickelt: die Detektion und Verarbeitung von Out-Of-Vocabulary-Wörtern (OOV-Wörtern, also Wörter, die nicht im Erkennungsvokabular sind) bei der Spracherkennung (in enger Zusammenarbeit mit der Firma Sympalog), die Klassifikation des Benutzerzustands auf der Basis von Sprach-, Video- und Biosignalen und die Klassifikation des Benutzerfokus mit Hilfe multimodaler Informationsquellen. Nach der Integration einer ersten Version des OOV-Moduls in das SmartWeb-System im Jahre 2005 wurden 2006 auch die Einzelkomponenten zur Bestimmung des Benutzerfokus (Klassifikation von On-View/Off-View, On-Talk/Off-Talk) eingebunden. Die Ergebnisse der Arbeiten zur Benutzerzustandsklassifikation werden im Rahmen eines separaten Systems demonstriert. Erkennung und Verarbeitung von Out-Of-Vocabulary Wörtern Um die Verarbeitung von unbekannten Wörtern in der Spracheingabe des SmartWebDemonstrators weiter zu verbessern, wurde im Jahr 2006 vor allem an der Erkennung von Wortuntereinheiten gearbeitet. Als Basis für das Vorgehen dienten Untersuchungen zur Häufigkeit von unbekannten Wörtern und Wortuntereinheiten (u.a. Silben, Laute) und die jeweilige Fehlerrate bei der Dekodierung durch einen entsprechend trainierten Spracherkenner. Für das EVAR-Korpus (Erlanger Zugauskunftssystem) zeigte sich, dass bei Silben ein gutes Gleichgewicht zwischen der erzielten Erkennungsrate auf Lautebene (82.8 Neben den konzeptionellen Änderungen am Setup des hybriden Spracherkenners (parallele Erkennung von Wörtern und Wortuntereinheiten) wurden auch Anstrengungen unternommen, die Datenlage für das Training der Wortuntereinheiten-Erkenner zu verbessern. Zu diesem Zweck konnten verschiedene vom Projektpartner Sympalog aufgenommene Korpora herangezogen werden. Allerdings mussten die am Lehrstuhl vorhandenen phonetischen Lexika stark erweitert werden, um den neu hinzugekommenen Wortschatz 190 abdecken zu können. Bei der Überarbeitung der Lexika spielte auch deren Verwendung für die automatische Phonem-Graphem- / Graphem-Phonem-Umwandlung mit dem MASSIVE Framework eine Rolle: So wurden u.a. auch in der orthografischen Darstellung der Wörter Silbengrenzen eingetragen. Benutzerzustandsklassifikation Für eine effiziente Interaktion zwischen SmartWeb und dem Benutzer kann es für das System von Vorteil sein, Informationen über den psychischen Zustand des Benutzers zu besitzen (etwa gestresst vs. entspannt oder ärgerlich vs. zufrieden). Besonders augenfällig wird dies im Auto- und Motorradszenario, wo das System idealerweise in der Lage sein sollte, in kritischen Situationen die Interaktion mit dem Fahrer durch eine Einschränkung des Informationsflusses anzupassen. Sprache, Mimik und Gestik des Benutzers lassen zwar häufig Rückschlüsse auf dessen Zustand zu, sie sind jedoch sehr individuell und unterliegen meist einer Maskierung. Einen direkten und unverfälschten Zugang zum Benutzerzustand können physiologische Parameter wie Hautleitwert, Puls usw. bieten. Für entsprechende Messungen existieren mobile Systeme und es besteht die Hoffnung, dass sich zumindest einige der Sensoren in Zukunft in die Kleidung, das Lenkrad oder ein mobiles Endgerät integrieren lassen. Innerhalb von SmartWeb verfolgt der LME das Ziel, eine personenunabhängige Klassifikation von Benutzerzuständen anhand von physiologischen Signalen in Echtzeit zu realisieren. Mit dem Ziel, einen Klassifikator zur Unterscheidung von Stress/nicht-Stress datengetrieben zu erstellen, wurde im Berichtszeitraum eine umfangreiche Stichprobe gesammelt: DRIVAWORK (Driving under varying workload) enthält Aufzeichnungen von Audio, Video und sechs physiologischen Signalen in verschiedenen Belastungs/Stressbedingungen während einer simulierten Autofahrt. Die Aufnahmen von 24 Personen belaufen sich auf 15 Stunden nutzbares Datenmaterial mit allein 1.1 GB an physiologischen Signalen. Weiterhin wurden die bestehenden Merkmalssätze, auf denen die Klassifikation basiert, verbessert und erweitert. Wenn alle sechs physiologischen Kanäle kombiniert werden, können die Extreme ”Entspannung” und ”Stress” mit einer Genauigkeit von 90 Multimodale Erkennung des Benutzerfokus Der Benutzer eines mobilen Endgerätes (z.B. T-Mobile MDA Pro) kann gesprochene Anfragen an SmartWeb stellen. Diese werden an einen Server geschickt und dort analysiert. Dabei soll das System automatisch erkennen, ob es überhaupt angesprochen war. Vielleicht galten die gesprochenen Worte ja einer menschlichen Begleitung, vielleicht war es ein Selbstgespräch? Mit dem Mikrofon und der Kamera am MDA-Pro kann man alle notwendigen Informationen erhalten und der Benutzer muss keine lästige Push-ToTalk-Taste drücken. Wird ein Gesicht im Kamerabild detektiert, klassifiziert das System den Aufmerksamkeitsfokus anhand der Blickrichtung: On-View, wenn der Benutzer direkt auf das Display schaut, oder Off-View, wenn der Benutzer nicht auf das Gerät, 191 sondern beispielsweise zu einem Gesprächspartner blickt. Analog wird für ein Sprachsignal bewertet, ob der Benutzer direkt mit dem System spricht (On-Talk) oder mit sich selbst bzw. einem Dritten (Off-Talk). On-Focus tritt im SmartWeb-Szenario also nur auf, wenn der Benutzer zum Gerät schaut und spricht (Beispiel hier20 ). Die Off-ViewKlassifikation basiert auf dem Viola-Jones-Algorithmus zur Gesichtsdetektion; zur OffTalk-Erkennung werden prosodische Merkmale (Dauer, Energie, Grundfrequenz, Jitter, Shimmer) verwendet. Im Berichtszeitraum wurde ein Demonstrator implementiert und auf der CeBIT 2006 vorgestellt. Auch im Gesamtsystem ist nun am Display des MDA erkennbar, ob das System die Anfrage als On-Focus erkannt hat. Um das System zu trainieren und zu evaluieren, wurden von unserem Partner LMU München möglichst realistische Daten gesammelt. Die zwei Klassen On-Focus und Off-Focus werden pro Äußerung mit Hilfe des Audiosignals zu 77zu 71 Publikationen – Hacker, Christian ; Batliner, Anton ; Nöth, Elmar: Are You Looking at Me, are You Talking with Me – Multimodal Classification of the Focus of Attention . In: Sojka, P. ; Kopecek, I. ; Pala, K. (Hrsg.) : Text, Speech and Dialogue. 9th International Conference, TSD 2006, Brno, Czech Republic, September 2006, Proceedings (9th International Conference, TSD 2006 Brno 11-15.9.2006). Berlin, Heidelberg : Springer, 2006, S. 581 – 588. (Lecture Notes in Artificial Intelligence (LNAI), Nr. 4188) – ISBN 978-3-540-39090-9 – Batliner, Anton ; Hacker, Christian ; Nöth, Elmar: To Talk or not to Talk with a Computer: On-Talk vs. Off-Talk . In: Fischer, Kerstin (Hrsg.) : How People Talk to Computers, Robots, and Other Artificial Communication Partners (How People Talk to Computers, Robots, and Other Artificial Communication Partners Bremen April 21-23, 2006). 2006, S. 79-100. (University of Bremen, SFB/TR 8 Report Bd. 010-09/2006) – Horndasch, Axel ; Nöth, Elmar ; Batliner, Anton ; Warnke, Volker: Phoneme-toGrapheme Mapping for Spoken Inquiries to the Semantic Web . In: ISCA (Veranst.) : Proceedings of the Ninth International Conference on Spoken Language Processing (Interspeech 2006 – ICSLP) (Ninth International Conference on Spoken Language Processing (Interspeech 2006 – ICSLP) Pittsburgh 17.-21.09.2006). Bonn : ISCA, 2006, S. 13-16. 20 URL: http://www5.informatik.uni-erlangen.de/Personen/hacker/work.xml?language=de 192 – Batliner, Anton ; Hacker, Christian ; Kaiser, Moritz ; Mögele, Hannes ; Nöth, Elmar: Taking into Account the User’s Focus of Attention with the Help of AudioVisual Information: Towards less Artificial Human-Machine-Communication . In: Krahmer, Emiel ; Swerts, Marc ; Vroomen, Jean (Hrsg.) : AVSP 2007 (International Conference on Auditory-Visual Speech Processing 2007 Hilvarenbeek 31.08.-03.09.2007). 2007, S. 51-56. – Hönig, Florian ; Batliner, Anton ; Nöth, Elmar: Fast Recursive Data-driven Multiresolution Feature Extraction for Physiological Signal Classification . In: Hornegger, Joachim ; Mayr, Ernst W. ; Schookin, Sergey ; Feußner, Hubertus ; Navab, Nassir ; Gulyaev, Yuri V. ; Höller, Kurt ; Ganzha, Victor (Hrsg.) : 3rd RussianBavarian Conference on Biomedical Engineering (3rd Russian-Bavarian Conference on Biomedical Engineering Erlangen 2.-3.07.2007). Bd. 1. Erlangen : Union aktuell, 2007, S. 47-52. – ISBN 3-921713-33-X – Hönig, Florian ; Batliner, Anton ; Nöth, Elmar: Real-time Recognition of the Affective User State with Physiological Signals . In: Cowie, Roddy ; de Rosis, Fiorella (Hrsg.) : The Second International Conference on Affective Computing and Intelligent Interaction, Proceedings of the Doctoral Consortium (Affective Computing and Intelligent Interaction Lisbon, Portugal 12-14.09.2007). 2007, S. 1-8. – ISBN 978-989-20-0798-4 – Hönig, Florian ; Hacker, Christian ; Warnke, Volker ; Nöth, Elmar ; Hornegger, Joachim ; Kornhuber, Johannes: Developing Enabling Technologies for Ambient Assisted Living: Natural Language Interfaces, Automatic Focus Detection and User State Recognition . In: BMBF (Bundesministerium für Bildung und Forschung) ; VDE (Verband der Elektrotechnik Elektronik Informationstechnik e.V.) (Veranst.) : Tagungsband zum 1. deutschen AAL-Kongress (1. Deutscher AAL (Ambient Assisted Living)-Kongress Berlin 30.01.2008-01.02.2008). Berlin/Offenbach : VDE Verlag GMBH, 2008, S. 371-375. – ISBN 978-3-8007-30766 – Nöth, Elmar ; Hacker, Christian ; Batliner, Anton: Does Multimodality Really Help? The Classification of Emotion and of On/Off-Focus in Multimodal Dialogues – Two Case Studies. . In: Grgic, Mislav ; Grgic, Sonja (Hrsg.) : Proceedings Elmar-2007 (Elmar-2007 Zadar 12.-14.09.). Zadar : Croatian Society Electronics in Marine – ELMAR, 2007, S. 9-16. – ISBN 978-953-7044-05-3 9.6.30 SW-Paket zur Handgestenerkennung Projektleitung: Prof. Dr.-Ing. Joachim Hornegger 193 Beteiligte: Dipl.-Inf. Eva Kollorz Giesler, B. Barke, A. Stichwörter: Handgestenerkennung; PMD-Kamera; Segmentierung; Klassifizierung Laufzeit: 4.7.2006–30.11.2006 Förderer: Audi Electronics Venture GmbH Kontakt: Dipl.-Inf. Eva Kollorz Tel.: +49 9131 85 27894 Fax: +49 9131 303811 E-Mail: [email protected] Die Erkennung von Handgesten bietet in vielen Bereichen Anwendungsmöglichkeiten, wie z.B. Infotainmentsystemen oder in der Automobil-Branche. Ziel dieses Projektes ist die Klassifikation von vordefinierten statischen Gesten mit Hilfe einer sogenannten PMD-Kamera (Photomischdetektoren, Photonic Mixer Device, kurz: PMD). Das von einem Sender ausgesendete modulierte Infrarotsignal beleuchtet eine Szene, trifft dort auf Objekte und wird von diesen auf den Sensor der Kamera reflektiert. Durch den Phasenversatz können die Distanzen zu den jeweiligen Gegenständen in der beobachteten Szene berechnet werden. Daraus ergibt sich ein Distanzbild, in dem jeder Bildpunkt die Distanz zu dem beobachteten 3-D Punkt in der Szene angibt. Die Kamera liefert auch ein herkömmliches Grauwertbild. Für die Segmentierung der Handgesten können die Distanz- als auch die Grauwertdaten genutzt werden. Die Distanzen werden hier verwendet, um die Hand samt Arm zu segmentieren. Als nächster Schritt wird die Hand extrahiert, um die Merkmale für die Klassifikation zu berechnen. Die Klassifikation soll echtzeitfähig sein, da die Kamera ca. 15 Bilder pro Sekunde liefert. Das System wird mit verschiedenen Gesten von verschiedenen Personen offline evaluiert und ein entsprechendes Trainingsset in das Online-System eingespielt. Die Software, in die das Paket integriert wird, wurde von Audi Electronics Venture GmbH vorgegeben. Es werden zwei Module in die bestehende Software integriert: das Modul ”Recording”, mit dem man die verschiedenen Gesten aufnehmen kann (um diese als Trainingsdaten verwenden zu können), sowie das Modul ”Classification”, das zur Klassifikation in dem Online-System dient. 194 9.6.31 Techniken der Hardware-Beschleunigung für die 3D Bildrekonstruktion aus Projektionen in Kegelstrahlgeometrie Projektleitung: Prof. Dr.-Ing. Joachim Hornegger Dr.-Ing. Markus Kowarschik Beteiligte: Dipl.-Inf. Holger Scherl Benjamin Keck, M. Sc. Stichwörter: Computertomographie; 3D-Rekonstruktion; Hardwarenahe Programmierung; Parallele Algorithmen; Performanzanalyse Laufzeit: 1.11.2004–30.4.2010 Förderer: Siemens Medical Solutions (Components Division) Kontakt: Dipl.-Inf. Holger Scherl E-Mail: [email protected] Im Rahmen einer Kooperation des Lehrstuhls für Mustererkennung und Siemens Medical Solutions (Geschäftsgebiet Components) werden seit November 2004 neuartige bildgebende Verfahren in der Computertomographie (CT) und deren Realisierung mittels unterschiedlicher Hardwarearchitekturen untersucht. Im besonderen Interesse stehen Algorithmen für die 3D-Rekonstruktion in der Spiral-CT und in C-Bogen-CT-Systemen inklusive notwendiger Vor- und Nachverarbeitungsschritte. Die Rekonstruktionsverfahren in der CT erfordern einerseits aufgrund der zu verarbeiteten Menge von Projektionsdaten und andererseits aufgrund der Größe und Anzahl der zu berechnenden Schnittbilder eine extrem hohe Rechenleistung des eingesetzten Rekonstruktionssystems. Die vorherrschenden Anforderungen an die Rechenzeit in Produktivsystemen erfordern nach dem heutigen Stand der Technik weiterhin den Einsatz skalierbarer Hardwarekomponenten. Im Fokus dieses Projekts steht die parallele Umsetzung von verschiedenen Rekonstruktionsalgorithmen auf Multiprozessorsystemen, Grafikbeschleunigerkarten, Spezialprozessoren (wie beispielsweise die Cell Broadband Engine Architecture), sowie auf rekonfigurierbarer Beschleunigerhardware, die auf Field Programmable Gate Array (FPGA) Technologie basiert. Während des letzten Jahres wurde die Performanz von modernen Rekonstruktionsverfahren auf dem Cell Prozessor untersucht. Die erzielten Resultate demonstrieren, dass die Ausführungsgeschwindigkeit verglichen mit aktuellen Personal Computern um eine Größenordnung verbessert werden konnte. Dies ermöglicht die schritthaltende Berechnung von CT Rekonstruktionen in Kegelstrahlgeometrie, was bedeutet, dass alle 195 notwendigen Berechnungen hinter der Aufnahmezeit des benutzten Gerätes versteckt werden können. Der Cell Prozessor stellt insbesondere in der Flachbilddetektor basierten Rekonstruktion in Kegelstrahlgeometrie eine vielversprechende Architektur dar, die nicht zuletzt aufgrund ihrer Möglichkeit in einer Hochsprache programmiert zu werden, innovative Entwicklungen in kommerziellen CT-Geräten ermöglichen wird. Publikationen – Scherl, Holger ; Kowarschik, Markus ; Hornegger, Joachim: Bit-Accurate Simulation of Convolution-Based Filtering on Reconfigurable Hardware . In: Hülsemann, Frank ; Kowarschik, Markus ; Rüde, Ulrich (Hrsg.) : Frontiers in Simulation (Simulationstechnique 18th Symposium in Erlangen 2005 Erlangen 12.-15. September 2005). Erlangen : SCS Publishing House e.V., 2005, S. 662667. – ISBN 3-936150-41-9 – Scherl, Holger ; Koerner, Mario ; Hofmann, Hannes ; Eckert, Wieland ; Kowarschik, Markus ; Hornegger, Joachim: Implementation of the FDK Algorithm for Cone-Beam CT on the Cell Broadband Engine Architecture . In: Hsieh, J. ; Flynn, M. J. (Hrsg.) : Proceedings of SPIE (SPIE Medical Imaging – Physics of Medical Imaging San Diego 17-22.2.2007). Bd. 6510. 2007, S. 651058. – Scherl, Holger ; Hoppe, Stefan ; Dennerlein, Frank ; Lauritsch, Günter ; Eckert, Wieland ; Kowarschik, Markus ; Hornegger, Joachim: On-the-fly-Reconstruction in Exact Cone-Beam CT using the Cell Broadband Engine Architecture . In: .. (Hrsg.) : Proceedings Fully3D Meeting and HPIR Workshop (9th International Meeting on Fully Three-Dimensional Image Reconstruction in Radiology and Nuclear Medicine Lindau July 9 – 13, 2007). 2007, S. 29-32. – Scherl, Holger ; Keck, Benjamin ; Kowarschik, Markus ; Hornegger, Joachim: Fast GPU-Based CT Reconstruction using the Common Unified Device Architecture (CUDA) . In: Frey, Eric C. (Hrsg.) : Nuclear Science Symposium, Medical Imaging Conference 2007 (2007 Nuclear Science Symposium, Medical Imaging Conference Honolulu, Hawaii (USA) 30.10. – 3.11.2007). 2007, S. -. – Scherl, Holger: Fast GPU-Based CT Reconstruction using the Common Unified Device Architecture (CUDA) .Vortrag: 2007 Nuclear Science Symposium, Medical Imaging Conference, NSS-MIC 2007, Honolulu, Hawaii (USA), 3.11..2007 196 9.6.32 Untersuchung und Bewertung der Ersatzstimme Laryngektomierter (SVcheck) Projektleitung: Prof. Dr. med. Frank Rosanowski Beteiligte: Prof.Dr.med., Dr.rer.nat. Ulrich Eysholdt PD Dr.-Ing. habil. Elmar Nöth, Akad. Dir. Dr.-Ing. Tino Haderlein Stichwörter: Laryngektomie; Ersatzstimme; automatische Sprachverarbeitung Laufzeit: 1.4.2005–31.3.2007 Förderer: Deutsche Krebshilfe Mitwirkende Institutionen: Abteilung für Phoniatrie und Pädaudiologie Lehrstuhl für Mustererkennung Kontakt: PD Dr.-Ing. habil. Elmar Nöth, Akad. Dir. Tel.: +49 9131 85 27888 Fax: +49 9131 303811 E-Mail: [email protected] Die Anbahnung einer tracheoösophagealen Ersatzstimme (TE-Stimme) ist eine Möglichkeit, Patienten nach einer totalen Laryngektomie, d.h. Kehlkopfentfernung, die Fähigkeit zu sprechen zurück zu geben. Ein Ventil zwischen Luft- und Speiseröhre erlaubt es, den Luftstrom aus der Lunge umzuleiten und Gewebeschwingungen in der Speiseröhre zur Ersatzstimmgebung zu nutzen. Die Betroffenen durchlaufen eine Therapie, in der wiederholt evaluiert werden muss, ob und wie sich ihre Ersatzstimme hinsichtlich Kriterien wie Lautstärke, Verständlichkeit oder Prosodiefähigkeit entwickelt hat. Da die Beurteilung subjektiv erfolgt und das Verfahren für Arzt und Patienten aufwändig ist, erscheint eine Automatisierung und Objektivierung in diesem Bereich sinnvoll. In unserer Arbeit untersuchen wir, wie gut tracheoösophageale Sprache von einem automatischen Spracherkennungssystem erkannt wird und ob die Ermittlung der Qualität einer Ersatzstimme zumindest teilweise automatisiert erfolgen kann. Dazu müssen die Bewertungen der Maschine und einer Vergleichsgruppe von Experten korrelieren. Die Selbstbewertung der Patienten (SF-36, V-RQOL, VHI, Trierer Skalen) wird ebenfalls Eingang in die Berechnung eines kompakten Globalmaßes finden, welches automatisch erstellt wird und eine Aussage über die Qualität der Ersatzstimme trifft. 197 Bisher konnten wir zeigen, dass die von menschlichen Experten vergebene Verständlichkeitsnote für kontinuierliche TE-Sprache sehr gut mit der von einem Spracherkennungssystem errechneten Wortakkuratheit korreliert, und zwar sowohl bei Nahbesprechungsaufnahmen (r=-0,88) als auch bei Telefonaufnahmen (r=-0,80). Ähnlich gute Korrelationen ergaben sich zwischen automatisch berechneten prosodischen Merkmalen und den Kriterien ”Übereinstimmung von Atem- und Sinneinheiten” und ”Sprechanstrengung”. Die grafische Darstellung von Sprechstörungen wurde erfolgreich mithilfe der Sammon-Transformation durchgeführt. Publikationen – Schuster, Maria ; Haderlein, Tino ; Nöth, Elmar ; Lohscheller, Jörg ; Eysholdt, Ulrich ; Rosanowski, Frank: Intelligibility of laryngectomees’ substitute speech: automatic speech recognition and subjective rating . In: Eur Arch Otorhinolaryngol 263 (2006), Nr. 2, S. 188-193 – Haderlein, Tino ; Nöth, Elmar ; Schuster, Maria ; Eysholdt, Ulrich ; Rosanowski, Frank: Evaluation of Tracheoesophageal Substitute Voices Using Prosodic Features . In: Hoffmann, Rüdiger ; Mixdorff, Hansjörg (Hrsg.) : Proc. Speech Prosody, 3rd International Conference (Speech Prosody, 3rd International Conference Dresden 2.5.-5.5.2006). Bd. 1. Dresden : TUDpress, 2006, S. 701-704. ISBN 3-938863-57-9 – Haderlein, Tino ; Zorn, Dominik ; Steidl, Stefan ; Nöth, Elmar ; Shozakai, Makoto ; Schuster, Maria: Visualization of Voice Disorders Using the Sammon Transform . In: Sojka, Petr ; Kopecek, Ivan ; Pala, Karel (Hrsg.) : Proc. Text, Speech and Dialogue; 9th International Conference (Text, Speech and Dialogue; 9th International Conference (TSD 2006) Brno, Tschechien 11.9.-15.9.2006). Bd. 1. Berlin : Springer, 2006, S. 589-596. (Lecture Notes in Artificial Intelligence) – ISBN 3540-39090-1 – Riedhammer, Korbinian ; Haderlein, Tino ; Schuster, Maria ; Rosanowski, Frank ; Nöth, Elmar: Automatic Evaluation of Tracheoesophageal Telephone Speech . In: Erjavec, Tomaz ; Zganec Gros, Jerneja (Hrsg.) : Proceedings of the 5th Slovenian and 1st International Conference Language Technologies IS-LTC 2006 (5th Slovenian and 1st International Conference Language Technologies IS-LTC 2006 Ljubljana, Slowenien 9.10.-10.10.2006). Bd. 1. Ljubljana, Slowenien : Biografika BORI d.o.o., 2006, S. 17-22. – ISBN 978-961-6303-83-5 – Haderlein, Tino ; Riedhammer, Korbinian ; Maier, Andreas ; Nöth, Elmar ; Toy, Hikmet ; Rosanowski, Frank: An Automatic Version of the Post-Laryngectomy 198 Telephone Test . In: Matousek, Vaclav ; Mautner, Pavel (Hrsg.) : Proc. Text, Speech and Dialogue; 10th International Conference (Text, Speech and Dialogue; 10th International Conference (TSD 2007) Pilsen, Tschechien 3.-7.9.2007). Bd. 1. Berlin : Springer, 2007, S. 238-245. (Lecture Notes in Artificial Intelligence Bd. 4629) – ISBN 978-3-540-74627-0 – Haderlein, Tino ; Nöth, Elmar ; Toy, Hikmet ; Batliner, Anton ; Schuster, Maria ; Eysholdt, Ulrich ; Hornegger, Joachim ; Rosanowski, Frank: Automatic Evaluation of Prosodic Features of Tracheoesophageal Substitute Voice . In: Eur Arch Otorhinolaryngol 264 (2007), Nr. 11, S. 1315-1321 9.6.33 Untersuchung und Bewertung der Stimme nach Larynxteilresektion (PVcheck) Projektleitung: Prof. Dr. med. Frank Rosanowski Beteiligte: Prof.Dr.med., Dr.rer.nat. Ulrich Eysholdt PD Dr.-Ing. habil. Elmar Nöth, Akad. Dir. Dr.-Ing. Tino Haderlein Stichwörter: Larynxteilresektion; pathologische Stimme; Sprachverarbeitung Laufzeit: 1.8.2007–31.1.2009 Förderer: Deutsche Krebshilfe Mitwirkende Institutionen: Abteilung für Phoniatrie und Pädaudiologie Lehrstuhl für Mustererkennung Kontakt: PD Dr.-Ing. habil. Elmar Nöth, Akad. Dir. Tel.: +49 9131 85 27888 Fax: +49 9131 303811 E-Mail: [email protected] automatische Nach einer Larynxteilresektion, d.h. einer partiellen Kehlkopfentfernung, ist die Stimmgebung je nach Umfang des Eingriffs beeinflusst. Die Betroffenen durchlaufen eine Therapie, in der wiederholt evaluiert werden muss, ob und wie sich ihre Stimme nach der Operation hinsichtlich Kriterien wie Lautstärke, Verständlichkeit oder Prosodiefähigkeit entwickelt hat. Da die Beurteilung subjektiv erfolgt und das Verfahren für 199 Arzt und Patienten aufwändig ist, erscheint eine Automatisierung und Objektivierung in diesem Bereich sinnvoll. In unserer Arbeit untersuchen wir, wie gut die Sprache der Patienten von einem automatischen Spracherkennungssystem erkannt wird und ob die Ermittlung der Stimmqualität zumindest teilweise automatisiert erfolgen kann. Dazu müssen die Bewertungen der Maschine und einer Vergleichsgruppe von Experten korrelieren. Die Selbstbewertung der Patienten (SF-36, V-RQOL, VHI, Trierer Skalen) wird ebenfalls Eingang in die Berechnung eines kompakten Globalmaßes finden, welches automatisch erstellt wird und eine Aussage über die Stimmqualität trifft. Im Vorgängerprojekt SVcheck21 zur Analyse kontinuierlicher Sprache nach totaler Laryngektomie konnte gezeigt werden, dass die von menschlichen Experten vergebenen Noten für klinische Bewertungskriterien sehr gut mit der von einem Spracherkennungssystem errechneten Wortakkuratheit oder mit automatisch berechneten prosodischen Merkmalen korrelieren. Diese Erfahrungen bilden die Grundlage für das neue Projekt, in dem differenzierter untersucht werden soll, wie sich die genannten Parameter nach bestimmten chirurgischen Eingriffen verändern. Die Varianz der Pathologien ist sehr groß, da z.B. nur eine Stimmlippe oder nur die Taschenfalten entfernt worden sein können. 9.6.34 Verfahren der Mustererkennung im digitalen Sport Projektleitung: Prof. Dr.-Ing. Joachim Hornegger Beteiligte: Dipl.-Ing. Björn Eskofier Stichwörter: Mustererkennung; Digitaler Sport; Biosignale Beginn: 1.9.2006 Kontakt: Dipl.-Ing. Björn Eskofier Tel.: +49 9131 85 27890 Fax: +49 9131 303811 E-Mail: [email protected] In vielen Bereichen des täglichen Lebens können eingebettete Systeme interessante und wichtige Informationen für den Anwender bereitstellen. Beispiele hierfür können beispielsweise im Automobilbau, der industriellen Automation und auch bei biomedizini21 URL: http://www5.informatik.uni-erlangen.de/Forschung/Projekte/SVcheck/?language=de 200 schen Implantaten gefunden werden. Auch im Bereich des Sports sind an vielen Stellen Systeme vorstellbar, die den Sportler unterstützen, leiten oder auch motivieren. Bereits heute gibt es beispielsweise die Möglichkeit, die Pulsfrequenz und/oder die momentane Geschwindigkeit eines Läufers zu erfassen und an diesen weiterzugeben. Im Rahmen dieses Projektes sollen solche und ähnliche Konzepte weiterverfolgt und verbessert werden. Dazu werden die Möglichkeiten der Integration verschiedener Sensoren in Sportartikel untersucht, und weiterhin die Optionen zur Verarbeitung der gemessenen Signale. Konzepte der Mustererkennung sollen dann genutzt werden, um die interessanten Informationen aus den Daten zu extrahieren. Denkbar sind hier beispielsweise der Ermüdungsgrad oder die Bewertung bestimmter Bewegungsfolgen hinsichtlich Ihrer gesundheitlichen Wirkung. 9.6.35 Volumetrische Erfassung des Krankheitsverlaufs bei der autosomal dominanten, polyzystischen Nierenerkrankung (ADPKD) Projektleitung: Prof. Dr.-Ing. Joachim Hornegger Prof. Dr. med. Kai-Uwe Eckardt Beteiligte: Prof. Dr. med. Michael Uder Dr. med. Raoul Zeltner PD Dr. Rolf Janka Dipl.-Inf. Volker Daum Stichwörter: segmentierung; Niere; Zysten; ADPKD Beginn: 1.4.2006 Mitwirkende Institutionen: Lehrstuhl für Informatik 5 (Mustererkennung) Medizinische Klinik 4 (Nephrologie und Hypertensiologie) Lehrstuhl für Diagnostische Radiologie Kontakt: Dipl.-Inf. Volker Daum Tel.: +49 9131 85 27874 Fax: +49 9131 303811 E-Mail: [email protected] Die autosomal dominante polyzystische Nierenerkrankung (ADPKD), auch familiäre Zystennieren genannt, ist eine der häufigsten erblichen Erkrankungen. Sie ist durch die Entstehung und das Wachstum multipler Zysten in beiden Nieren gekennzeichnet. Die Erkrankung führt bei etwa der Hälfte der Betroffenen im Alter von 60 201 Jahren zur Notwendigkeit einer Nierenersatztherapie. Dabei gehen die Bildung und die Größenzunahme der Zysten der Abnahme der Nierenfunktion voraus. Vor allem in den frühen Stadien der Erkrankung ist daher die Bestimmung der Nierengröße und des Zystenvolumens für die Verlaufsbeurteilung der Erkrankung mittels bildgebender Verfahren von besonderer Bedeutung. Weiterhin ist aufgrund der komplizierten Nierenstruktur wenig über die dynamische Entwicklung einzelner Zysten bekannt. Segmentierung der Niere: Der erste Schritt zur Volumenerfassung der Niere und der Nierenzysten ist die Segmentierung der Gesamtniere (inklusive Zysten). Problematisch hierbei ist die Abgrenzung zur Leber die als Teil des Krankheitsbildes meist ebenfalls mit Zysten durchsetzt ist, sowie die Deformation der Niere durch das Zystenwachstum. Aufgrund dieser Deformation ist es unter anderem auch nicht möglich Vorwissen über die Form der Niere in den Segmentierungsprozess einzubringen. Dementsprechend wird hier auf eine semiautomatische Segmentierung mittels eines Random-Walker Algorithmus gesetzt. Dieser basiert auf einer manuellen Initialisierung von Punkten die in dem zu segmentierenden Gewebe liegen und bestimmt daraus unter Verwendung von Gradienteninformationen des Bildes welche Bildpunkte mit hoher Wahrscheinlichkeit noch zu dem gesuchten Objekt gehören. Die Vorteile dieser Methode sind ihre einfache und intuitive Bedienbarkeit, sowie ihre Fähigkeit auch schwache Objektgrenzen gut zu segmentieren. Segmentierung der Zysten: Die Segmentierung der einzelnen Zysten erfolgt ebenfalls semi-automatisch basierend auf einer Wasserscheidentransformation. Die Zysten können dabei individuell segmentiert werden, was die Erstellung von Statistiken über die Größenverteilung der Zysten zulässt. Zusätzlich wird versucht besonders kleine Zysten die meist nicht viel mehr als ein paar Pixel im Bild ausmachen mittels einfachem Thresholding zu erfassen. Ziel dabei ist, eine Korrelation zwischen den Unterschiedlichen Zystengrößen und deren Häufigkeit und der Nierenfunktion ermitteln zu können. 9.7 Publikationen – Batliner, Anton ; Huber, Richard: Speaker Characteristics and Emotion Classification . In: Müller, Christian (Hrsg.) : Speaker Classification I Fundamentals, Features, and Methods. Berlin-Heidelberg : Springer, 2007, (LNAI, Nr. 4343), S. 138-151. – Bock, Rüdiger ; Hoppe, Stefan ; Scherl, Holger ; Hornegger, Joachim: Beam Hardering Correction with an Iterative Scheme Using Exact Backward Projector and a Polychromatic Forward Projector . In: Horsch, Alexander ; Deserno, Thomas 202 M. ; Handels, Heinz ; Meinzer, Hans-Peter ; Tolxdorff, Thomas (Hrsg.) : Bildverarbeitung für die Medizin 2007 (Bildverarbeitung für die Medizin 2007 München 25.-27. März 2007). Berlin : Springer, 2007, S. 46-50. – ISBN 103-540-71090-6 – Burkhardt, Felix ; Huber, Richard ; Batliner, Anton: Application of Speaker Classification in Human Machine Dialog Systems . In: Müller, Christian (Hrsg.) : Speaker Classification I Fundamentals, Features, and Methods. BerlinHeidelberg : Springer, 2007, (LNAI, Nr. 4343), S. 174-179. – Dennerlein, Frank ; Noo, Frederic: Cone-Beam Reconstruction of Objects with Localized Heterogeneities . In: Utah Center For Advanced Imaging Research (Veranst.) : Proceedings of the UCAIR Symposium (The 19th Annual UCAIR Symposium Salt Lake City, UT, USA 14.9.2007). 2007, S. 5. – Dennerlein, Frank ; Noo, Frederic ; Schoendube, Harald ; Hornegger, Joachim ; Lauritsch, Guenter: Cone-beam Reconstruction on a Circlar Short-scan using the Factorization Approach . In: Kachelrieß, Marc (Hrsg.) : Proceedings Fully 3D Meeting and HPIR Workshop (9th International Meeting on Fully ThreeDimensional Image Reconstruction in Radiology and Nuclear Medicine Lindau 9-13 Juli). 2007, S. 346-349. – Dennerlein, Frank ; Noo, Frederic ; Haerer, Wolfgang ; Hornegger, Joachim ; Lauritsch, Guenter: Constriction of Cone-Beam Artifacts by the Z-Smart Reconstruction Method . In: IEEE (Veranst.) : 2007 IEEE Nuclear Science Symposium Conference Record (2007 IEEE Nuclear Science Symposium, Medical Imaging Conference Honolulu, Hawaii, USA 27.10.-3.11.2007). 2007, S. 4090-4096. – Dennerlein, Frank ; Noo, Frederic ; Hoppe, Stefan ; Hornegger, Joachim ; Lauritsch, Guenter: Evaluation of Three Analytical Methods for Reconstruction from Cone-Beam Data on a Short Circular Scan . In: IEEE (Veranst.) : 2007 IEEE Nuclear Science Symposium Conference Record (2007 IEEE Nuclear Science Symposium, Medical Imaging Conference Honolulu, Hawaii, USA 27.10.-3.11.2007). 2007, S. 3933-3938. – Dennerlein, Frank ; Noo, Frédéric ; Hornegger, Joachim ; Lauritsch, Günther: Fan-beam filtered-backprojection reconstruction without backprojection weight . In: Physics in Medicine and Biology 52 (2007), Nr. 11, S. 3227-3239 – Denzler, Joachim ; Hornegger, Joachim ; Kittler, Josef ; Maurer JR, Calvin R. (Hrsg.): 06311 Abstracts Collection – Sensor Data and Information Fusion in Computer Vision and Medicine . (Seminar: Sensor Data and Information Fusion in Computer Vision and Medicine Dagstuhl 30.07. – 04.08.2006) Bd. 06311. Dagstuhl : Internationales Begegnungs- und Forschungszentrum fuer Informatik 203 (IBFI), Schloss Dagstuhl, 2007 (Dagstuhl Seminar Proceedings, Nr. 06311) . ISSN 1862-4405 – Grzegorzek, Marcin: Appearance-Based Statistical Object Recognition Including Color and Context Modeling . Berlin : Logos, 2007 (Studien zur Mustererkennung Bd. 23) . – 214 Seiten. ISBN 978-3-8325-1588-1 – Gurevich, Igor ; Koryabkina, Irina ; Yashina, Vera ; Niemann, Heinrich ; Salvetti, Ovidio: An Application of a Descriptive Image Algebrafor Diagnostic Analysis of Cytological Specimens; An Algebric Model and Experimental Study . In: Ranchordas, Alpesh Kumar ; Araújo, Helder ; Vitriá, Jordi (Hrsg.) : VISAPP 2007, Secod international Conference on Computer Vision Theory and Applications (VISAPP 2007 Barcelona 8.-11.3.2007). Barcelona : Insticc Press, 2007, S. 230-237. – ISBN 978-972-8865-75-7 – Gurevich, Igor ; Murashov, D ; Salvetti; Ovidio ; Niemann, Heinrich: Nuclei Images Analysis Technology; Diagnostic Features and Experiental Study . In: Ranchordas, Alpesh Kumar ; Araújo, Helder ; Vitriá, Jordi (Hrsg.) : VISAPP 2007, Secod international Conference on Computer Vision Theory and Applications (VISAPP 2007 Barcelona 8.-11.3.2007). Barcelona : Insticc Press, 2007, S. 204-210. – ISBN 978-972-8865-75-7 – Gütter, Christoph ; Wacker, Matthias ; Xu, Chenyang ; Hornegger, Joachim: Registration of Cardiac SPECT/CT Data through Weighted Intensity Co-Occurrence Priors . In: .. (Hrsg.) : Proceedings of the 10th International Conference Brisbane, Australia (10th International Conference on Medical Image Computing and Computer-Assisted Intervention – MICCAI 2007 Brisbane, Australia 29 October – 2 November 2007). Berlin/Heidelberg/New York : Springer, 2007, S. 725-733. – Hacker, Christian ; Cincarek, Tobias ; Maier, Andreas ; Heßler, Andre ; Nöth, Elmar: Boosting of Prosodic and Pronunciation Features to Detect Mispronunciations of Non-Native Children . In: IEEE Signal Processing Society (Hrsg.) : ICASSP, 2007 IEEE International Conference on Acoustics, Speech, and Signal Processing, Proceedings (ICASSP – International Conference on Acoustics, Speech, and Signal Processing Honolulu, Hawaii, USA 15-20.4.2007). Bd. 4. Bryan, TX : Conference Managament Services, Inc., 2007, S. 197-200. – ISBN 14244-0728-1 – Hacker, Christian ; Maier, Andreas ; Heßler, Andre ; Guthunz, Ute ; Nöth, Elmar: Caller: Computer Assisted Language Learning from Erlangen – Pronunciation Training and More . In: Auer, Michael E. (Hrsg.) : Proc. Int. Conf. Interactive Computer Aided Learning (ICL) (International Conference ICL: ePortfolio and 204 Quality in e-learning Villach/Austria 26.-29.9.2007). Kassel : kassel university press, 2007, S. 6 pages, no pagination. – ISBN 978-3-89958-279-6 – Haderlein, Tino: Automatic Evaluation of Tracheoesophageal Substitute Voices . Berlin : Logos Verlag, 2007 (Studien zur Mustererkennung Bd. 25) . – 238 Seiten. ISBN 978-3-8325-1769-4. ISSN 1617-0695 – Haderlein, Tino ; Eysholdt, Ulrich ; Riedhammer, Korbinian ; Nöth, Elmar ; Rosanowski, Frank: Automatisierung des Postlaryngektomie-Telefontests (PLTT) . In: Gross, Manfred ; Kruse, Eberhard (Hrsg.) : Aktuelle phoniatrischpädaudiologische Aspekte 2007 (Dreiländertagung D-A-CH der Deutschen Gesellschaft für Phoniatrie und Pädaudiologie (24. Wissenschaftliche Jahrestagung) Innsbruck, Österreich 28.9.-30.9.2007). Norderstedt : Books on Demand GmbH, 2007, S. 66-69. (Aktuelle phoniatrisch-pädaudiologische Aspekte Bd. 15) – ISBN 978-3-8334-8578-7 – Hoppe, Stefan ; Dennerlein, Frank ; Günter Lauritsch ; Hornegger, Joachim ; Frederic Noo: Evaluation of the Impact of View Differentiation and Backprojection Weight in Circle-plus-Line Cone-Beam Tomography . In: IEEE (Veranst.) : 2007 Nuclear Science Symposium Conference Record (2007 Nuclear Science Symposium and Medical Imaging Conference Honolulu, Hawaii, USA 27.10. 03.11.2007). 2007, S. 4097-4102. – Hoppe, Stefan ; Noo, Frédéric ; Dennerlein, Frank ; Lauritsch, Günter ; Hornegger, Joachim: Geometric calibration of the circle-plus-arc trajectory . In: PHYSICS IN MEDICINE AND BIOLOGY (2007), Nr. 52, S. 6943-6960 – Hoppe, Stefan ; Hornegger, Joachim ; Lauritsch, Günter ; Dennerlein, Frank ; Noo, Frédéric: Truncation Correction for Non-horizontal Filter Lines . In: Kachelrieß, Marc (Hrsg.) : Proceedings Fully 3D Meeting and HPIR Workshop (9th International Meeting on Fully Three-Dimensional Image Reconstruction in Radiology and Nuclear Medicine Lindau 9-13 Juli). Bd. 9. 2007, S. 209-212. – Keck, Benjamin ; Prümmer, Marcus ; Ganguly, Arun ; Fahrig, Rebecca: Stent Structure-Graph Based Mapping . In: Hornegger, Joachim ; Mayr, Ernst W. ; Schookin, Sergey ; Feußner, Hubertus ; Navab, Nassir ; Gulyaev, Yuri V. ; Höller, Kurt ; Ganzha, Victor (Hrsg.) : 3rd Russian-Bavarian Conference on Biomedical Engineering (3rd Russian-Bavarian Conference on Biomedical Engineering Erlangen 2.-3.07.2007). Bd. 1. Erlangen : Union aktuell, 2007, S. 132-137. ISBN 3-921713-33-X – Khamene, Ali ; Schaller, Christian ; Hornegger, Joachim ; Celi, Juan Carlos ; Ofstad, Barbara ; Rietzel, Eike ; Li, X. Allen ; Tai, An ; Bayouth, John : A Novel 205 Image Based Verification Method for Respiratory Motion Management in Radiation Therapy . In: Dimitris Metaxas ; Baba C. Vemuri ; Amnon Shashua ; Harry Shum (Hrsg.) : Eleventh IEEE International Conference on Computer Vision (ICCV’07 Rio de Janeiro, Brasilien 14.10.2007 – 20.10.2007). DVD Proceedings : Omnipress, 2007, S. n/a. – ISBN 978-1-4244-1631-8 – Kollorz, Eva ; Hahn, Dieter ; Grunewald, Markus ; Goecke, Tamme ; Hornegger, Joachim ; Kuwert, Torsten: Volume Quantification of the Thyroid Gland Using 3-D Ultrasound Imaging . In: Deutsche Gesellschaft für Nuklearmedizin (DGN) (Veranst.) : Nuklearmedizin Kongressausgabe 02/07 (45. Jahrestagung der Deutschen Gesellschaft für Nuklearmedizin Hannover 25. April 2007). 2007, S. A 83. – Kuwert, Torsten ; Römer, Wolfgang ; Hornegger, Joachim: Korrelative Bildgebung in der Kardiologie; Theoretische Ansätze und klinische Anwendung . In: Herz 32 (2007), S. 122-128 – Maier, Andreas ; Schuster, Maria ; Batliner, Anton ; Nöth, Elmar ; Nkenke, Emeka: Automatic Scoring of the Intelligibility in Patients with Cancer of the Oral Cavity . In: Interspeech (Hrsg.) : Interspeech 2007 (Eighth Annual Conference of the International Speech Communication Association Antwerpen, Belgien 27.31.8.2007). Bd. 1, 1. Aufl. Bonn : Uni Bonn, 2007, S. 1206-1209. – Munkelt, Christoph ; Trummer, Michael ; Wenhardt, Stefan ; Denzler, Joachim: Benchmarking 3D Reconstructions from Next Best View Planning . In: Ikeuchi, Katsushi (Hrsg.) : Proceedings of the IAPR Conference on Machine Vision Applications (IAPR Conference on Machine Vision Applications Tokyo, Japan 16.18.5.2007). Tokyo, Japan : IAPR MVA Conference Committee, 2007, S. 552-555. – Noo, Frédéric ; Hoppe, Stefan ; Dennerlein, Frank ; Lauritsch, Günter ; Hornegger, Joachim: A new scheme for view-dependent data differentiation in fan-beam and cone-beam computed tomography . In: PHYSICS IN MEDICINE AND BIOLOGY 52 (2007), Nr. 17, S. 5393-5414 – Penne, Jochen ; Höller, Kurt ; Wilhelm, Dirk ; Feußner, Hubertus ; Hornegger, Joachim: Photorealistic 3-D Surface Reconstructions Using TOF Cameras . In: Hornegger, Joachim ; Mayr, Ernst W. ; Schookin, Sergey ; Feußner, Hubertus ; Navab, Nassir ; Gulyaev, Yuri V. ; Höller, Kurt ; Ganzha, Victor (Hrsg.) : 3rd Russian-Bavarian Conference on Biomedical Engineering (3rd Russian-Bavarian Conference on Biomedical Engineering Erlangen 2.-3.07.2007). Bd. 1. Erlangen : Union aktuell, 2007, S. 233-240. – Prümmer, Marcus ; Fahrig, R. ; Wigström, L. ; Boese, J. ; Lauritsch, G. ; Strobel, N. ; Hornegger, Joachim: Cardiac C-arm CT: 4D non-model based heart motion 206 estimation and its application . In: Hsieh, Jiang ; Flynn, Michael (Hrsg.) : Medical Imaging 2007: Physics of Medical Imaging, Proceedings of the SPIE (SPIE on Medical Imaging 2007: Image Processing San Diego 17 – 22 February). Bd. 6510, 2007. Aufl. San Diego : SPIE, 2007, S. 651015. – Richter, Gregor ; Engelhorn, Tobias ; Struffert, Tobias ; Doelkern, M. ; Ganslandt, Oliver ; Hornegger, Joachim ; Kalender W.A. ; Dörfler, Arnd: Flat Panel Detector Angiographic CT for Stent-Assisted Coil Embolization of Broad-Based Cerebral Aneurysms . In: American Journal of Neuroradiology (2007), S. 1902-1908 – Riedhammer, Korbinian ; Stemmer, Georg ; Haderlein, Tino ; Schuster, Maria ; Rosanowski, Frank ; Nöth, Elmar ; Maier, Andreas: TOWARDS ROBUST AUTOMATIC EVALUATION OF PATHOLOGIC TELEPHONE SPEECH . In: IEEE (Hrsg.) : Proceedings of ASRU 2007 (2007 IEEE Workshop on Automatic Speech Recognition and Understanding Kyoto 9.-13.12.2007). Bd. 1, 1. Aufl. Kyoto : IEEE, 2007, S. 717-722. – ISBN 978-1-4244-1746-9 – Rosanowski, Frank ; Gräßel, Elmar ; Haderlein, Tino ; Schuster, Maria: Gesundheitsbezogene Lebensqualität und Krankheitsbewältigung Laryngektomierter mit funktionierenden Provox-Stimmventilprothesen . In: Gross, Manfred ; Kruse, Eberhard (Hrsg.) : Aktuelle phoniatrisch-pädaudiologische Aspekte 2007 (Dreiländertagung D-A-CH der Deutschen Gesellschaft für Phoniatrie und Pädaudiologie (24. Wissenschaftliche Jahrestagung) Innsbruck, Österreich 28.9.30.9.2007). Bd. 1. Norderstedt : Books on Demand GmbH, 2007, S. 56. (Aktuelle phoniatrisch-pädaudiologische Aspekte Bd. 15) – ISBN 978-3-8334-8578-7 – Schaller, Christian ; Khamene, Ali ; Hornegger, Joachim: Image Based Time Series Synchronization for Periodically Moving Targets . In: Hornegger, Joachim ; Mayr, Ernst W. ; Schookin, Sergey ; Feußner, Hubertus ; Navab, Nassir ; Gulyaev, Yuri V. ; Höller, Kurt ; Ganzha, Victor (Hrsg.) : 3rd Russian-Bavarian Conference on Biomedical Engineering (3rd Russian-Bavarian Conference on Biomedical Engineering Erlangen 2.-3.07.2007). Bd. 1. Erlangen : Union aktuell, 2007, S. 106-110. – ISBN 3-921713-33-X – Scherl, Holger ; Hornegger, Joachim ; Prümmer, Marcus ; Lell, Michael: Semiautomatic Level-Set Based Segmentation and Stenosis Quantification of the Internal Carotid Artery in 3D CTA Data Sets . In: Medical Image Analysis 11 (2007), Nr. 1, S. 21-34 – Schröder, Marc ; Batliner, Anton ; d’Alessandro, Christophe (Hrsg.): Proceedings of the International Workshop on Paralinguistic Speech – between Models and Data (ParaLing’07 Saarbrücken 03.08.2007) . (ParaLing’07 Saarbrücken 3.8.2007) 2007. – 82 Seiten. 207 – Schulz, V. ; Nickel, Ingo ; Nömayr, Anton ; Vija, A. H. ; Hocke, Carsten ; Hornegger, Joachim ; Bautz, Werner: Effect of CT-based attenuation correction on uptake ratios in skeletal SPECT . In: Nuklearmedizin 46 (2007), Nr. 1, S. 38-42 – Schuster, Maria ; Maier, Andreas ; Kohler, Regina ; Nöth, Elmar ; Rosanowski, Frank ; Eysholdt, Ulrich ; Nkenke, Emeka: Einflussfaktoren auf Sprechstoerungen bei T1 und T2 Plattenepithelcarcinomen der Mundhoehle . In: Gross, M. ; Kruse, Friedrich E. (Hrsg.) : Aktuelle phoniatrische Aspekte (Jahrestagung der Deutschen Gesellschaft fuer Phoniatrie und Paedaudiologie Innsbruck, Oesterreich 28.-30.9.2007). Bd. 15, 1. Aufl. Norderstedt : Books on Demand GmbH, 2007, S. 77-78. – ISBN 978-3-8334-8578-7 – Schöndube, Harald ; Stiersdorfer, Karl ; Dennerlein, Frank ; Noo, Frederic: Comparative Evaluation of Two Analytical Methods for Helical Cone-Beam Tomography . In: IEEE (Veranst.) : 2007 IEEE Nuclear Science Symposium Conference Record (2007 IEEE Nuclear Science Symposium, Medical Imaging Conference Honolulu, Hawaii, USA 27.10.-3.11.2007). 2007, S. 4467-4471. – Schöndube, Harald ; Stiersdorfer, Karl ; Dennerlein, Frank ; White, Timothy A. ; Noo, Frederic: Towards an Efficient Two-Step Hilbert Algorithm for Helical Cone-Beam CT . In: Kachelrieß, Marc (Hrsg.) : Proceedings of the Fully3D (9th International Meeting on Fully Three-Dimensional Image Reconstruction in Radiology and Nuclear Medicine Lindau 9.-13.7.2007). 2007, S. 120-123. – Sehr, Armin ; Zeng, Yuanhang ; Nöth, Elmar ; Kellermann, Walter: Maximum Likelihood Estimation of a Reverbaration Model for Robust Distant-Talking Speech Recognition . In: eurasip (Veranst.) : Proc. European Signal Processing Conference (Eusipco 2007 Poznan 3.-7.09.). 2007, S. 1299-2630. – Swadzba, Agnes ; Liu, Bing ; Penne, Jochen ; Jesorsky, Oliver ; Kompe, Ralf: A Comprehensive System for 3D Modeling from Range Images Acquired from a 3D ToF Sensor . In: Sagerer, Gerhard (Hrsg.) : Proc. of International Conference on Computer Vision Systems (The 5th International Conference on Computer Vision Systems Conference Paper, 2007 Bielefeld 21 – 24 März). 2007, S. 1-10. – Vetter, Christoph ; Gütter, Christoph ; Xu, Chenyang ; Westermann, Rüdiger: Non-Rigid Multi-Modal Registration on the GPU . In: Pluim, Josien P. W. ; Reinhardt, Joseph M. (Hrsg.) : Proceedings of the SPIE on Medical Imaging 2007: Image Processing (SPIE on Medical Imaging 2007: Image Processing San Diego 17 – 22 February 2007). Bd. 6512. San Diego : SPIE, 2007, S. -. – Wenhardt, Stefan ; Deutsch, Benjamin ; Angelopoulou, Elli ; Niemann, Heinrich: Active Visual Object Reconstruction using D-, E-, and T-Optimal Next Best Views 208 . In: Kanade, Takeo ; Medioni, Gerard (Hrsg.) : Proceedings of 2007 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR! 07) (Conference on Computer Vision and Pattern Recognition Minneapolis, MN 18. – 23. Juni). Los Alamitos, California, Washington, Tokyo : IEEE Computer Society, 2007, S. -. – Wenhardt, Stefan ; Denzler, Joachim ; Niemann, Heinrich: On Minimizing Errors in 3D Reconstruction for Stereo Camera Systems . In: Pattern Recognition and Image Analysis 17 (2007), Nr. 2, S. 337-348 – Wimmer, Andreas ; Soza, Grzegorz ; Hornegger, Joachim: Two-stage Semiautomatic Organ Segmentation Framework using Radial Basis Functions and Level Sets . In: Heimann, Tobias ; Styner, Martin ; van Ginneken, Bram (Hrsg.) : 3D Segmentation in the Clinic – A Grand Challenge MICCAI 2007 Workshop Proceedings (10th International Conference on Medical Image Computing and Computer-Assisted Intervention – MICCAI 2007 Brisbane, QLD, Australien 29.10.2007 – 02.11.2007). 2007, S. 179-188. – Wolz, G. ; Nömayr, Anton ; Hothorn, Torsten ; Hornegger, Joachim ; Römer, Wolfgang ; Bautz, Werner ; Kuwert, Torsten: Anatomical accuracy of interactive and automated rigid registration between X-ray CT and FDG-PET . In: Nuklearmedizin 1 (2007), Nr. 46, S. 43-48 9.8 Studien- und Abschlussarbeiten – Diplomarbeit: Characterization of Speech Disorders using the Sammon Transform Bearbeiter: Dominik Zorn (beendet am 02.01.2006) Betreuer: PD Dr.-Ing. habil. Elmar Nöth, Akad. Dir. – Studienarbeit: Konzeption und Realisierung eines Laborsystems zur Erfassung und Validierung von Emotionswerten im kundenorientierten E-Business Bearbeiter: Stefan Hausmann (beendet am 10.01.2006) Betreuer: PD Dr.-Ing. habil. Elmar Nöth, Akad. Dir. – Diplomarbeit: Combination of an Exact Reconstruction Method with an Iterative Scheme for Cone-Beam Computed Tomography Bearbeiter: Rüdiger Bock (beendet am 16.01.2006) Betreuer: Dipl.-Ing. (FH) Stefan Hoppe; Dipl.-Inf. Holger Scherl; Prof. Dr.-Ing. Joachim Hornegger – Studienarbeit: Exact Cone-Beam Reconstruction Using Partial Circles Bearbeiter: Rainer Grimmer (beendet am 29.01.2006) Betreuer: Dipl.-Ing. (FH) Stefan Hoppe; Dipl.-Inf. Holger Scherl; Prof. Dr.-Ing. Joachim Hornegger 209 – Diplomarbeit: Respiratory and cardiac motion compensated vessel segmentation for interventional Magnetic Resonance Imaging Bearbeiter: Andreas Wimmer (beendet am 01.02.2006) Betreuer: Prof. Dr.-Ing. Joachim Hornegger – Studienarbeit: Rigid 2D-3D Image Registration Based on Ultrasound Bearbeiter: Oliver Arold (beendet am 02.02.2006) Betreuer: Prof. Dr.-Ing. Joachim Hornegger; Dipl.-Inf. Marcus Prümmer; Dipl.-Ing. (FH) Stefan Hoppe; PD Dr. med. Wolfgang Römer – Bachelor Thesis: Insassenklassifikation für die Airbagsteuerung mit 3DKameratechnologie Bearbeiter: Paul Gabriel (beendet am 13.03.2006) Betreuer: Prof. Dr.-Ing. Joachim Hornegger; Dipl.-Inf. Florian Jäger – Studienarbeit: Detection and Quantification of Evolving Structures in MR Sequences Bearbeiter: Eva Eibenberger (beendet am 01.04.2006) Betreuer: Dipl.Inf. Florian Jäger; Prof. Dr.-Ing. Joachim Hornegger – Studienarbeit: Tri-modal, Non-rigid Image Registration for Thyroid Analysis Bearbeiter: Christian Kollee (beendet am 20.04.2006) Betreuer: Prof. Dr.-Ing. Joachim Hornegger; Dipl.-Inf. Dieter Hahn; Prof. Dr. med. Torsten Kuwert – Studienarbeit: Korrektur von Patientenbewegungen für digitale Subtraktionsverfahren der Röntgentechnik mittels bildbasierter Gerätesteuerung Bearbeiter: Razvan Ionasec (beendet am 30.04.2006) Betreuer: Prof. Dr.-Ing. Joachim Hornegger – Magisterarbeit: Automatic Word Form Recognition for German in Java with JSLIM (DSM) Bearbeiter: Miaomiao Gao (beendet am 01.05.2006) Betreuer: Prof. Dr. Roland Hausser; Prof. Dr.-Ing. Joachim Hornegger – Studienarbeit: Erstellung eines hybriden, stochastisch/linguistischen Sprachmodells zur Interpretation von Äußerungen Bearbeiter: Jan Grübert (beendet am 02.05.2006) Betreuer: PD Dr.-Ing. habil. Elmar Nöth, Akad. Dir. – Studienarbeit: Automatische Detektion von Laserlinsen in digitalen endoskopischen Hochgeschwindigkeitsaufnahmen Bearbeiter: Ingmar Voigt (beendet am 10.05.2006) Betreuer: Dipl. Med.-Inf. Jochen Penne; Prof. Dr.-Ing. Joachim Hornegger – Diplomarbeit: Classification of the Thyroid using 3D Ultrasound Imaging Bearbeiter: Eva Kollorz (beendet am 15.05.2006) Betreuer: Dipl.-Inf. Dieter Hahn; Prof. Dr.-Ing. Joachim Hornegger; PD Dr. med. Markus Grunewald – Master Thesis: Development of an optical head-tracking system for virtual spatial audio via headphones Bearbeiter: Ravi Prasad Rao Ansanpally (beendet am 16.05.2006) Betreuer: Prof. Dr.-Ing. Joachim Hornegger 210 – Master Thesis: Towards a Variational Approach to Regularized Tomographic Reconstruction Bearbeiter: Stefan Schneider (beendet am 19.05.2006) Betreuer: Prof. Dr.-Ing. Joachim Hornegger; Dipl.-Inf. Marcus Prümmer; Prof. Dr. Ulrich Rüde; Dipl.-Inf. Harald Köstler – Studienarbeit: Multiresolution Time-Frequency Transforms for Speech Recognition Bearbeiter: Uwe Klaus Zäh (beendet am 30.05.2006) Betreuer: PD Dr.-Ing. habil. Elmar Nöth, Akad. Dir. – Diplomarbeit: Erkennung isolierter komplexer Handgesten in 2 1/2DVideosequenzen mit Hidden-Markov-Modellen Bearbeiter: Thomas Sünkel (beendet am 15.06.2006) Betreuer: Prof. Dr.-Ing. Joachim Hornegger – Diplomarbeit: Estimation of Camera Motion from Depth Image Sequences Bearbeiter: Agnes Anna Swadzba (beendet am 15.06.2006) Betreuer: Dipl.-Inf. Ingo Scholz – Studienarbeit: Segmentierung durch Registrierung mit Krümmungsinformationen Bearbeiter: Franz Hirschbeck (beendet am 30.06.2006) Betreuer: Prof. Dr.-Ing. Joachim Hornegger – Studienarbeit: Design of a Projector Model in VHDL for Algebraic Reconstruction Bearbeiter: Sebastian Sauer (beendet am 01.07.2006) Betreuer: Dipl.-Inf. Marcus Prümmer; Dipl.-Inf. Holger Scherl; Prof. Dr.-Ing. Joachim Hornegger – Bachelor Thesis: Monaurale Erkennung von Telefondaten Bearbeiter: Martin Tran (beendet am 01.07.2006) Betreuer: PD Dr.-Ing. habil. Elmar Nöth, Akad. Dir. – Master Thesis: Fast Fusion of Range and Video Sensor Data Using FPGA Bearbeiter: Andre Guilherme Linarth (beendet am 03.07.2006) Betreuer: Dipl. Med.Inf. Jochen Penne; Prof. Dr.-Ing. Joachim Hornegger – Diplomarbeit: Sichtbasierte Lokalisation und Steuerung eines Roboters Bearbeiter: Ralf Gebler (beendet am 19.07.2006) Betreuer: Dipl.-Inf. Benjamin Deutsch; Dipl.-Ing. Christian Derichs – Studienarbeit: Implementation of a Circular Cone-Beam Reconstruction Algorithm on the Cell Broadband Engine Processor Bearbeiter: Mario Körner (beendet am 25.07.2006) Betreuer: Prof. Dr.-Ing. Joachim Hornegger; Dipl.Ing. (FH) Kyoung-Jin Lee; Dipl.-Inf. Holger Scherl; Dipl.-Inf. Florian Jäger – Studienarbeit: Machbarkeitsuntersuchungen zur Glukoseuhr Bearbeiter: Johannes Feulner (beendet am 26.07.2006) Betreuer: Dipl.-Inf. Florian Hönig; Prof. Dr.Ing. Joachim Hornegger 211 – Diplomarbeit: Automatic registration of endoscopic images Bearbeiter: Friederike Gerhard (beendet am 01.08.2006) Betreuer: Prof. Dr.-Ing. Joachim Hornegger – Diplomarbeit: Minimale Pfadfindung mit Nebenbedingungen auf Oberflächenmodellen Bearbeiter: Konrad Sickel (beendet am 01.08.2006) Betreuer: Prof. Dr.-Ing. Joachim Hornegger – Master Thesis: Multigrid methods for non-rigid image registration Bearbeiter: Zongying Mou (beendet am 08.08.2006) Betreuer: Prof. Dr.-Ing. Joachim Hornegger; Jingfeng Han, M. Sc. – Studienarbeit: Implementation einer Client-Server Applikation zur Gesichtserkennung am Smartphone Bearbeiter: Werner Spiegl (beendet am 09.08.2006) Betreuer: Dipl.-Inf. Christian Hacker; PD Dr.-Ing. habil. Elmar Nöth, Akad. Dir. – Diplomarbeit: A Comparison of Parallel Implementations of Helical Cone-Beam Reconstruction on High-Performance Processors Bearbeiter: Mikulas Kovac (beendet am 15.08.2006) Betreuer: Dipl.-Inf. Holger Scherl; Prof. Dr.-Ing. Joachim Hornegger – Master Thesis: Novel Learning-based Approach to Optimal EPID Image Deblurring and Enhancement Bearbeiter: Philipp Rößler (beendet am 01.09.2006) Betreuer: Prof. Dr.-Ing. Joachim Hornegger – Diplomarbeit: Eine Client-Server Anbindung zur automatischen Aussprachebewertung für das Projekt ”Caller” Bearbeiter: André Hessler (beendet am 28.09.2006) Betreuer: PD Dr.-Ing. habil. Elmar Nöth, Akad. Dir.; Dipl.-Inf. Christian Hacker; Dipl.-Inf. Andreas Maier – Studienarbeit: Pre-Processing Algorithms for C-Arm based Cone-Beam Reconstruction on the Cell Broadband Engine Processor Bearbeiter: Hannes Hofmann (beendet am 18.10.2006) Betreuer: Dipl.-Inf. Holger Scherl; Dipl.-Inf. Florian Jäger; Prof. Dr.-Ing. Joachim Hornegger – Diplomarbeit: Automatic Design of Features for Classification of Physiological Signals Using Genetic Programming Bearbeiter: Philipp Janda (beendet am 30.10.2006) Betreuer: Dipl.-Inf. Florian Hönig; Dipl.-Inf. Axel Horndasch – Studienarbeit: Generation of active shape models for segmentation and registration Bearbeiter: Martin Spiegel (beendet am 16.11.2006) Betreuer: Dipl.-Inf. Dieter Hahn; Prof. Dr.-Ing. Joachim Hornegger; PD Dr. med. Wolfgang Römer – Master Thesis: Evaluation of Bias Field Correction Methods for MRI and US Bearbeiter: Michael Balda (beendet am 15.12.2006) Betreuer: Dipl.-Inf. Florian Jäger; Dipl.-Inf. Dieter Hahn; Prof. Dr.-Ing. Joachim Hornegger 212 – Diplomarbeit: Lokalisation von Körperregionen in CT-Topogrammen Bearbeiter: Corinna Bürger (beendet am 15.12.2006) Betreuer: Dipl.-Inf. Florian Jäger; Prof. Dr.-Ing. Joachim Hornegger – Diplomarbeit: 4D Image Verification Bearbeiter: Christian Schaller (beendet am 10.01.2007) Betreuer: Prof. Dr.-Ing. Joachim Hornegger – Diplomarbeit: Implementierung und Evaluierung verschiedener Verfahren zur Segmentierung der Papille Bearbeiter: Oliver Arold (beendet am 15.01.2007) Betreuer: Dipl.-Inf. Rüdiger Bock; Dipl.-Inf. Jörg Meier; Prof. Dr.-Ing. Joachim Hornegger – Bachelor Thesis: Automatische Detektion von Kalkablagerungen im Brustgewebe Bearbeiter: Christian Held (beendet am 25.01.2007) Betreuer: Prof. Dr.-Ing. Joachim Hornegger – Studienarbeit: Implementierung und Evaluierung verschiedener Vorverarbeitungsmethoden zur Klassifikation von Retinaaufnahmen mittels erscheinungsbasierter Verfahren Bearbeiter: Juliane Blechinger (beendet am 06.02.2007) Betreuer: Dipl.-Inf. Rüdiger Bock; Dipl.-Inf. Jörg Meier; Prof. Dr.-Ing. Joachim Hornegger – Studienarbeit: An automatic intelligibility test based on the post-laryngectomy telephone test Bearbeiter: Korbinian Riedhammer (beendet am 30.03.2007) Betreuer: PD Dr.-Ing. habil. Elmar Nöth, Akad. Dir.; Dr.-Ing. Tino Haderlein – Studienarbeit: Sprecher(gruppen)erkennung mit Hilfe Gaußscher Mischverteilungen Bearbeiter: Tobias Bocklet (beendet am 31.03.2007) Betreuer: PD Dr.-Ing. habil. Elmar Nöth, Akad. Dir.; Dipl.-Inf. Andreas Maier – Diplomarbeit: Analyse roter Blutkörperchen auf parasitären Befall mit Hilfe der Computer Assistierten Mikroskopie Bearbeiter: Jan Grübert (beendet am 01.04.2007) Betreuer: Prof. Dr.-Ing. Joachim Hornegger; Dipl.-Inf. Volker Daum – Master Thesis: A framework for extraction of stent deformation Bearbeiter: Benjamin Keck (beendet am 30.04.2007) Betreuer: Dipl.-Inf. Marcus Prümmer; Prof. Dr.-Ing. Joachim Hornegger – Master Thesis: Detection and Visualization of Endo-Leaks in CT Data for Stent Monitoring Bearbeiter: Jing Lu (beendet am 02.05.2007) Betreuer: Prof. Dr.-Ing. Joachim Hornegger – Master Thesis: Investigation of ART like algorithms for data inconsistence detection and motion correction Bearbeiter: Vitaliy Promyshlyanskyy (beendet am 213 02.05.2007) Betreuer: Dipl.-Inf. Marcus Prümmer; Prof. Dr.-Ing. Joachim Hornegger – Diplomarbeit: Entwicklung und Bewertung eines Verfahrens zur Ermittlung des klinischen Dosisindikators nach IEC 62494-1 Bearbeiter: Simon Schöll (beendet am 31.05.2007) Betreuer: Prof. Dr.-Ing. Joachim Hornegger – Master Thesis: Automatic segmentation of liver lesions in CT data sets Bearbeiter: Zhou Yu (beendet am 01.06.2007) Betreuer: Prof. Dr.-Ing. Joachim Hornegger; Jingfeng Han, M. Sc.; Dipl.-Inf. Andreas Wimmer – Diplomarbeit: Motion Correction in 3D Digital Subtraction Angiography Bearbeiter: Mario Körner (beendet am 08.06.2007) Betreuer: Dipl.-Inf. Marcus Prümmer; Prof. Dr.-Ing. Joachim Hornegger – Bachelor Thesis: Segmentierung und Bewegungsanalyse von Herzklappen Bearbeiter: Oliver Weiß (beendet am 11.06.2007) Betreuer: Dr.-Ing. Thomas Wittenberg – Diplomarbeit: Klassifikation und Visualisierung von 3D Fußdaten Bearbeiter: Rainer Grimmer (beendet am 15.06.2007) Betreuer: Dipl.-Ing. Björn Eskofier; Dipl.-Inf. Florian Hönig – Studienarbeit: Adaption der Bewertung von Zustandshypothesen bei der Objekterkennung Bearbeiter: Sven Fuchs (beendet am 12.07.2007) Betreuer: Dipl.-Ing. Christian Derichs – Studienarbeit: Analyse von Sprechstörungen bei Kindern mit Lippen-KieferGaumenspaltung auf Laut- und Wortebene Bearbeiter: Alexander Reuß (beendet am 17.07.2007) Betreuer: PD Dr.-Ing. habil. Elmar Nöth, Akad. Dir.; Dipl.-Inf. Andreas Maier – Studienarbeit: Visualisierung von Stimm- und Sprechstörungen Bearbeiter: Julian Exner (beendet am 17.07.2007) Betreuer: Dipl.-Inf. Andreas Maier; PD Dr.-Ing. habil. Elmar Nöth, Akad. Dir.; Dipl.-Math. (FH) Stefan Wenhardt – Diplomarbeit: A variational approach for the reduction of quantum noise in CT images Bearbeiter: Markus Mayer (beendet am 18.07.2007) Betreuer: Dipl.-Inf. Anja Borsdorf; Prof. Dr.-Ing. Joachim Hornegger; Dipl.-Inf. Harald Köstler; Prof. Dr. Ulrich Rüde – Studienarbeit: Detektion und Klassifikation von schmalbandigen Funksignalen in breitbandigen Funksignalen Bearbeiter: Dirk Kolb (beendet am 01.08.2007) Betreuer: PD Dr.-Ing. habil. Elmar Nöth, Akad. Dir. 214 – Studienarbeit: Detektion und Klassifikation von schmalbandigen Funksignalen in breitbandigen Funksignalen Bearbeiter: Dirk Kolb (beendet am 01.08.2007) Betreuer: PD Dr.-Ing. habil. Elmar Nöth, Akad. Dir. – Studienarbeit: Rekonstruktion von Kamerabewegungen aus Bildfolgen Bearbeiter: Achim Neubauer (beendet am 01.09.2007) Betreuer: Dipl.-Inf. Benjamin Deutsch; Dipl.-Math. (FH) Stefan Wenhardt – Studienarbeit: 3D Segmentierung von Zystennieren Bearbeiter: Holger Helbig (beendet am 02.09.2007) Betreuer: Dipl.-Inf. Volker Daum; Prof. Dr.-Ing. Joachim Hornegger – Bachelor Thesis: Automatische Klassifikation von Herdbefunden in Mammographieaufnahmen Bearbeiter: Erik Haßlmeyer (beendet am 03.09.2007) Betreuer: Dr.-Ing. Thomas Wittenberg – Diplomarbeit: Reconstruction of static scenes using TOF cameras Bearbeiter: Johannes Feulner (beendet am 03.09.2007) Betreuer: Prof. Dr.-Ing. Joachim Hornegger; Dipl. Med.-Inf. Jochen Penne – Bachelor Thesis: Design, construction and programming of new and improved electronics for the ”Nomad XR4000” Bearbeiter: Klaus Doth (beendet am 08.10.2007) Betreuer: Dipl.-Inf. Benjamin Deutsch; Dipl.-Inf. Christian Rieß – Master Thesis: Development of a gesture-based user-interface for the exploration and navigation of 3-D reconstructions using range imaging sensors Bearbeiter: Stefan Soutschek (beendet am 15.10.2007) Betreuer: Prof. Dr.-Ing. Joachim Hornegger; Dipl. Med.-Inf. Jochen Penne – Master Thesis: Feature-based registration of range imaging and CCD-sensors Bearbeiter: Christian Hess (beendet am 15.10.2007) Betreuer: Prof. Dr.-Ing. Joachim Hornegger; Dipl. Med.-Inf. Jochen Penne – Master Thesis: Reconstruction of partially non-static scenes using range imaging sensors Bearbeiter: Michael Stürmer (beendet am 15.10.2007) Betreuer: Prof. Dr.Ing. Joachim Hornegger; Dipl. Med.-Inf. Jochen Penne – Diplomarbeit: Automatische Klassifikation von Gewebeschwingungen in endoskopischen Hochgeschwindigkeitsaufnahmen Bearbeiter: Werner Spiegl (beendet am 02.11.2007) Betreuer: Prof. Dr.-Ing. Joachim Hornegger – Diplomarbeit: Dynamic valve modeling from 4D CT Bearbeiter: Razvan Ionasec (beendet am 01.12.2007) Betreuer: Prof. Dr.-Ing. Joachim Hornegger 215 – Diplomarbeit: Towards Realtime Catheter / Guide Wire Segmentation from Neuro-Fluoroscopy Images Bearbeiter: Martin Spiegel (beendet am 01.12.2007) Betreuer: Dipl.-Inf. Dieter Hahn; Dipl.-Inf. Volker Daum; Prof. Dr. Arnd Dörfler – Diplomarbeit: Optimization of a Speech Recognizer for Medical Studies of Children in Preschool and Primary School Age Bearbeiter: Tobias Bocklet (beendet am 18.12.2007) Betreuer: PD Dr.-Ing. habil. Elmar Nöth, Akad. Dir.; Dipl.-Inf. Andreas Maier – Diplomarbeit: User Modeling in Emotion Recognition Bearbeiter: Korbinian Riedhammer (beendet am 18.12.2007) Betreuer: Dipl.-Inf. Stefan Steidl; Dipl.Inf. Andreas Maier – Master Thesis: Tracking of Patient Motion Due to Respiration Using a Time Of Flight (TOF) Camera and its Applicability in Emission Tomography Bearbeiter: Peter Schuhmann (beendet am 30.12.2007) Betreuer: Prof. Dr.-Ing. Joachim Hornegger; Dipl.-Ing. Johannes Zeintl; Dipl. Med.-Inf. Jochen Penne; Dipl.-Inf. Christian Schaller 216 10 Lehrstuhl für Informatik 6 (Datenmanagement) Anschrift: Martensstraße 3, 91058 Erlangen Tel.: 09131/8527892 Fax: 09131/8528854 E-Mail: [email protected] Leitung: Prof. Dr. Klaus Meyer-Wegener Professor: Prof. Dr. Richard Lenz Prof. em. Dr. Hartmut Wedekind Sekretariat: Brigitte Knechtel Wiss. Mitarbeiter: Dipl.-Inf. Michael Daum Dipl.-Inf. Vladimir Entin Dipl.-Inf. Florian Irmert Dipl.-Inf. Frank Lauterwald Dipl.-Inf. Robert Nagy Dipl.-Inf. Christoph Neumann Der Lehrstuhl für Informatik 6 (Datenmanagement, vormals Datenbanksysteme) wurde 1979 durch die Berufung von Prof. Dr. Hartmut Wedekind gegründet. Nach seiner Emeritierung Ende September 2000 führte er den Lehrstuhl kommissarisch weiter. 2001 wurde Prof. Dr. Klaus Meyer-Wegener zum neuen Lehrstuhlinhaber berufen. Er hatte bereits von 1990 bis 1993 die dem Lehrstuhl zugeordnete Professur für Informatik (Datenbanksysteme) inne, die von September 1994 bis Dezember 2005 durch Prof. Dr. Stefan Jablonski besetzt war und seit April 2007 mit Prof. Dr. Richard Lenz besetzt ist. Der Lehrstuhl beschäftigt sich sowohl mit der zielgerichteten Erforschung der Grundlagen des Datenmanagements als auch mit dem anwendungsgetriebenen Einsatz von Datenmanagement-Technologien. Aufbauend auf den Forschungsergebnissen erfolgt, zumeist gemeinsam mit Partnern aus Wirtschaft und Öffentlichem Dienst, die unmittelbare Umsetzung der entwickelten Konzepte im Rahmen von Projekten in der betrieblichen Praxis. Gemeinsam bilden Forschung und Projektgeschäft die Grundlage für die zielgerichtete Ausbildung der Studierenden anhand neuester DatenmanagementTechnologien. Datenbanksysteme haben inzwischen eine sehr große Bedeutung in allen Bereichen der 217 Wirtschaft und der Verwaltung erlangt. Neben den oft eingesetzten relationalen Datenbanksystemen etablierter Hersteller entwickelt sich in den letzten Jahren, verstärkt durch die Fortschritte in anderen Bereichen der Informatik (Multimedia, Ubiquitous Computing, Peer-to-Peer-Technologien) ein zunehmender Bedarf an problemorientierten Datenbanksystemen. Im Bereich der Spezialsysteme (eingebettete und autonome Systeme) sind herkömmliche Datenbank-Verwaltungssysteme aufgrund ihrer Größe und ihres Ressourcenbedarfs nicht einsetzbar. Ausgehend von dieser Erkenntnis erfolgt eine gezielte Schwerpunktbildung der Grundlagenforschung am Lehrstuhl. Die zunehmende Notwendigkeit zur Integration verschiedener Datenbanksysteme und der steigende Bedarf zur effizienten Unterstützung system- und organisationsübergreifender Geschäftsprozesse motivieren anwendungsorientierte Forschungsschwerpunkte wie Datenlogistik und Datenqualität. Lehre Der Lehrstuhl bietet jedes Jahr die Pflicht-Lehrveranstaltung ”Software-Systeme 2” im Grundstudium des Diplomstudiengangs Informatik an. Sie werden im neuen BachelorStudiengang abgelöst durch die Pflicht-Lehrveranstaltungen ”Konzeptionelle Modellierung” (zweites Fachsemester) und ”Datenbanksysteme” (fünftes Fachsemester). Im Hauptstudium bzw. im neuen Master-Studiengang bietet der Lehrstuhl ein eigenes Fach an und trägt zur Hälfte das Fach ”Medieninformatik” mit. Daneben beteiligt sich der Lehrstuhl intensiv an den Informatik-Angeboten für andere Studiengänge, hier insbesondere Maschinenbau, Wirtschaftsingenieurwesen, Computational Engineering und Linguistische Informatik. 10.1 Forschungsschwerpunkte Die Forschungsschwerpunkte des Lehrstuhls orientieren sich an den Generalthemen Datenmanagement, Datenlogistik/Prozessunterstützung und Datenanalyse. Grundsätzlich stehen sowohl klassische Datenbankthemen wie Datenmodellierung, effizienter Datenzugriff und Konzepte zur Wahrung der Datenkonsistenz als auch weiterreichende Themenkomplexe wie Management und Optimierung von Datenqualität im Fokus. Nachfolgend werden die Forschungsschwerpunkte genauer charakterisiert. Datenmanagement Datenbanksysteme ermöglichen eine effiziente Verwaltung strukturierter Daten. Defizite bestehen noch beim Umgang mit speziellen Daten wie Multimedia-Daten, Datenströmen, elektronischen Dokumenten oder unstrukturierten und semistrukturierten Daten. Im Rahmen der Forschung am Lehrstuhl wird untersucht, wie mit bewährten und neuen Methoden des Datenmanagements auch der Umgang mit speziellen Daten effizienter gestaltet werden kann. 218 Ein weiteres Forschungsthema ist der Umgang mit Veränderung. Die Anforderungen an betriebliche Informationssysteme sind in aller Regel einem ständigen Wandel unterworfen, was sich gravierend auf das Datenmanagement auswirkt. Im Rahmen der Forschung zu ”evolutionären Informationssystemen” beschäftigt sich der Lehrstuhl mit der Frage, wie Informationssysteme gestaltet werden, um den Aufwand für eine bedarfsorientierte Systemevolution zu minimieren. In diesem Zusammenhang spielen komponentenbasierte Systeme, Service-orientierte Architekturen und Schichtenarchitekturen eine wichtige Rolle. Datenbanksysteme bieten in beschränktem Umfang Konzepte zur Wahrung der Datenqualität an. Um über die Grenzen einzelner Datenbanksysteme hinaus eine hohe Datenqualität sicherstellen zu können, sind neue Methoden und Werkzeuge erforderlich, damit ein umfassendes ”Datenqualitätsmanagement” in geeigneter Weise unterstützt werden kann. Voraussetzung zur bedarfsorientierten Optimierung der Datenqualität ist die Möglichkeit zur Messung der Datenqualität. Dazu sind Indikatoren für verschiedene Dimensionen der Datenqualität zu bestimmen und bedarfsorientiert zu gewichten. Im Rahmen der Forschung am Lehrstuhl wird versucht, qualitätsbezogene Metadaten in geeigneter Weise zu verwalten, um sie beispielsweise für die Datenbereinigung und für die Datenanalyse nutzen zu können. Datenlogistik und Prozessunterstützung Datenbanksysteme spielen eine gewichtige Rolle bei der Anwendungsintegration. Kern jedes Integrationsprojektes ist die Datenintegration, die einerseits die semantische Abstimmung (”Mapping”) und andererseits die systemübergreifende Synchronisation betrifft. Die Datenintegration bildet die Voraussetzung für eine geeignete prozessorientierte Integration, bei der die Datenlogistik im Hinblick auf den Bedarf der Geschäftsprozesse optimiert wird. Zwischen Anwendungen und den von ihnen verwendeten Datenbanken müssen zu diesem Zweck Daten ausgetauscht und konsistent gehalten werden. Dafür werden Prozesse definiert, die rechnergestützt ablaufen (”Workflow Management”, ”Prozessmanagement”), und die Daten müssen ggf. in anwendungsspezifische Formate umgewandelt werden (”Datentransfer und -konvertierung”). Dabei wird vor allem durch die Notwendigkeit der semantischen Integration von Datentypen und Instanzen ein hoher manueller Bearbeitungsaufwand verursacht. Wir suchen nach Methoden und Techniken zur Minimierung dieses Aufwands. In diesem Zusammenhang wird besonderes Augenmerk auf den Einsatz von Metadaten-Repositories gerichtet, in denen Metamodelle abgelegt werden können. Datenanalyse Die Anforderungen an Datenhaltungssysteme für die Datenanalyse (OLAP) unterscheiden sich grundlegend von den Anforderungen an operative Datenbanksysteme (OLTP). Sogenannte Datawarehouse-Systeme haben sich als technische Basis für die Datenanalyse etabliert. Am Lehrstuhl wird untersucht, welche besonderen Anforderungen bei 219 der Analyse spezieller Datentypen bestehen und wie diesen Anforderungen begegnet werden kann. Darüber hinaus wird untersucht, wie die bekannten Methoden zur Datenanalyse und zum Data Mining zur Optimierung der Datenqualität eingesetzt werden können. 10.2 Forschungsprojekte 10.2.1 CoBRA DB (Component Based Runtime Adaptable DataBase) Projektleitung: Prof. Dr. Klaus Meyer-Wegener Beteiligte: Dipl.-Inf. Florian Irmert Beginn: 1.2.2006 Kontakt: Dipl.-Inf. Florian Irmert Tel.: 09131/8527902 Fax: 09131/8528854 E-Mail: [email protected] Datenbankmanagementsysteme (DBMS), egal ob kommerziell oder Open Source, sind meistens ”monolithisch” aufgebaut. Es sind kaum ”saubere” Schnittstellen, Schichten oder Komponenten erkennbar. Dies liegt vor allem daran, dass DBMS oft über viele Jahre hinweg entwickelt und immer wieder erweitert wurden. Oft rechtfertigen ”time to market” oder Performanzgründe kurzfristige Designentscheidungen, welche die spätere Weiterentwicklung erschweren und die Wartung verteuern. Ziel des Projekts CobraDB ist zunächst die Entwicklung eines modularen Datenbanksystems. Die gängigen Teile eines Datenbanksystems wie z.B. Anfrageverarbeitung, Logging, Recovery usw. sollen als eigenständige Komponenten realisiert werden. Diese können dann wie in einem ”Baukasten” zusammengesetzt und für die jeweilige Anwendung die passenden Komponenten ausgewählt werden. Im weiteren Projektverlauf sollen diese Komponenten zur Laufzeit ausgetauscht werden können. Dies erspart ein Herunterfahren des Datenbanksystems, wodurch die Erreichbarkeit und Wartungsfreundlichkeit verbessert wird. Durch das ”Tailoring” eines DBMS zur Laufzeit eröffnen sich viele neue Möglichkeiten, z.B.: • Im Bereich von ”embedded systems” sind Datenbanksysteme denkbar, die ihren Funktionsumfang erst während des Betriebs an die aktuellen Gegebenheiten anpassen können. 220 • ”Interna” von DBMS können auch im laufenden Betrieb gepatched oder ”upgedated” werden. Publikationen – Irmert, Florian ; Meyerhöfer, Marcus; Weiten, Markus: Towards Runtime Adaption in a SOA Environment . In: Cazzola, Walter; Chiba, Shigeru; Cady, Yvonne; Ducasse, Stéphane; Kniesel, Günter; Oriol, Manuel; ; Gunter Saake (Hrsg.) : Proceedings: Workshop on Reflection, AOP, and Meta-Data for Software Evolution (RAM-SE’07 – ECOOP’07 Berlin 31.07.2007). Magdeburg : Otto-von-GuerickeUniversität Magdeburg, 2007, S. 17-26. 10.2.2 Comaera Projektleitung: Prof. Dr. Klaus Meyer-Wegener Beteiligte: Dipl.-Inf. Marcus Meyerhöfer Stichwörter: Software-Komponenten; Performanz; Vorhersage; Komponenten-Repository Laufzeit: 1.3.2005–31.7.2007 Das Forschungsprojekt Comaera wurde zum 1. März 2005 an der FAU Erlangen, Lehrstuhl Informatik 6 begonnen. Es ist ein Nachfolgeprojekt des COMQUADProjekts und verfolgt die dort entwickelten Ansätze und Ideen weiter. Es behandelt die Konstruktion von Software mit einem komponentenbasierten Ansatz, wobei im Gegensatz zu bereits existierenden Komponentenmodellen ein Modell entwickelt wird, das neben den funktionalen Eigenschaften einer Software-Komponente auch nichtfunktionale Eigenschaften explizit mit einbezieht. Dieses neuartige Komponentenmodell ermöglicht es, Aussagen über quantifizierbare nichtfunktionale Eigenschaften (wie z.B. die Bildrate einer Videoübertragung oder die Anzahl gleichzeitig bedienbarer Clients) treffen zu können. Idealerweise sollten diese Aussagen zusicherbar sein (was nur möglich ist, falls die eingesetzte Systemumgebung Zusicherungen ermöglicht; dies ist derzeit nicht der Fall und wird daher nicht eingehender untersucht) und die Eigenschaften einer komplexen, zusammengesetzten Komponente automatisch aus denen der Bestandteile ableitbar sein. In diesem Projekt untersuchen wir unter anderem, wie Softwarekomponenten transparent und automatisch bzgl. ausgewählter quantitativer Eigenschaften vermessen werden können, wie die große Menge anfallender Messdaten verwaltet und analysiert und wie 221 letztendlich die gewonnen Informationen zur Vorhersage von Eigenschaften einer Assembly von Komponenten verwendet werden kann. Hierzu wurde unter anderem eine Erweiterung eines Applikationsservers für Komponenten entworfen, mit dem deklarativ Messsensoren in eine komponentenbasierte Anwendung eingebracht werden können. Die durch das nicht-intrusive Verfahren mit geringem Overhead erhaltenen Messwerte werden in einem Komponentenrepository abgelegt. Eine darauf aufbauende Analyse mit statistischen Mitteln hat das Ziel, Komponenten mit Hilfe von charakteristischen Maßzahlen zu beschreiben. Ergänzt wird dieses System um einen an Software-Komponenten angepassten Profiler, der die Ermittlung des Ressourcenbedarfs einer Komponente ermöglicht. Derzeit wird untersucht, wie die Leistungseigenschaften einer Komponente zukünftig in abstrakterer Form mittels Microbenchmarking auf der Java-Plattform ermittelt werden können, um Vorhersagen über das zu erwartende Laufzeitverhalten auf nicht gemessenen Rechnern/Plattformen treffen zu können. Zusätzlich beschäftigt sich das Projekt mit Möglichkeiten, die ermittelten Leistungswerte einer Softwarekomponente für die Vorhersage von Eigenschaften einer Komponenten-Assembly zu verwenden. Publikationen – Meyerhöfer, Marcus ; Volz, Bernhard: EJBMemProf – A Memory Profiling Framework for Enterprise Java Beans . In: Heinemann, George, T., Crnkovic, Ivica; Schmidt, Heinz, W.; Stafford, Judith, A.; Szyperski, Clemens; Walnann, Kurt (Hrsg.) : Component-Based Software Engineering (CBSE) (8th International Symposium on Component-Based Software Engineering (CBSE2005) St. Louis, MO, USA 14.-15.05.2005). 2005, S. 17-32. – Meyerhöfer, Marcus ; Lauterwald, Frank: Towards Platform-Independent Component Measurement . In: Weck, Wolfgang; Bosch, Jan; Reussner, Ralf; Szyperszki, Clemens (Hrsg.) : WCOP 2005 (Tenth International Workshop on ComponentOriented Programming Glasgow, Scotland, July 2005). xx : xx, 2005, S. -. – Volz, Bernhard: Ein Speicherprofiler für Enterprise Java Beans . In: GI Gesellschaft für Informatik (Hrsg.) : Lecture Notes in Informatics (LN) – Seminars (Informatiktage 2005 – Fachwissenschaftlicher Informatik-Kongress Schloss Birlinghoven, St. Augustin 8. – 9. April 2005). Bd. Vol. S-2. Bonn : GI Edition, 2005, S. 33 – 35. – ISBN 3-88579-436-5 10.2.3 Datenbankgestützte Prozessautomatisierung bei Software-Tests Projektleitung: Prof. Dr. Klaus Meyer-Wegener 222 Kern, Andreas, Dipl.-Ing. (AUDI AG) Beteiligte: Dipl.-Inf. Vladimir Entin Stichwörter: Testautomatisierung; MDA; Model Driven Architecture; Testdatenmanagement Beginn: 1.3.2007 Förderer: AUDI AG Mitwirkende Institutionen: Informatik 6 Kontakt: Prof. Dr. Klaus Meyer-Wegener Tel.: 09131/8527892 Fax: 09131/8528854 E-Mail: [email protected] Im Bereich Fahrwerk und Elektronik existieren zurzeit keine einheitlichen Testprozesse zum Testen von Fahrerassistenzsystemen, was zu einem unnötigen Ressourcenverbrauch führen kann. Ebenfalls gibt es kein Konzept zur Auswertung und Wiederverwendung der Testergebnisse. Zur Definition einheitlicher Testprozesse soll im Rahmen dieses Projekts ein Prozessmodell zur automatisierten Testdurchführung der Fahrerassistenzsysteme entwickelt werden. Dazu sollen in einem ersten Schritt die eigentlichen Testprozesse identifiziert werden. Nach einer entsprechenden Anforderungsanalyse bezüglich der Testprozesse soll eine an die Bedürfnisse der Entwickler angepasste Prozessbeschreibungsnotation konzipiert werden, in welcher anschließend das eigentliche Prozessmodell beschrieben wird. Die anderen Ziele dieses Projekts sind die Entwicklung eines datenbankbasierten Konzepts zur Auswertung und Wiederverwendung von Testergebnissen sowie die Lösung eventueller Kommunikationsprobleme zwischen den verschiedenen an den Testprozessen beteiligten Datenbanken. Dazu soll in einem ersten Schritt untersucht werden, inwieweit sich schon existierende Ansätze wie etwa Data Mining zur Auswertung und Verwaltung der Testergebnisse eignen. Außerdem gilt es eine Teststrategie zu entwickeln, welche die Testoptimierung im Fokus hat (Stichpunkt: Überdeckung). 223 Publikationen – Entin, Vladimir ; Meyer-Wegener, Klaus: Ein Framework für die Testautomatisierung bei Fahrer-Assistenz-Systemen . In: GI Gesellschaft für Informatik (Hrsg.) : Testing of Software – From Research to Practice in conjunction with the conference Software Engineering 2008 (Research to Practice in conjunction with the conference Software Engineering 200 München 19.02.2008). 2008, S. -. (Lecture Notes in Informatics (LN)-Workshops) 10.2.4 Erlanger Glaukomregister (SFB 539, Teilprojekt Z) Beteiligte: Dipl.-Inf. Frank Lauterwald Stichwörter: Integration; Anforderungsmanagement; Datenqualität Beginn: 1.8.1997 Mitwirkende Institutionen: http://www.augenklinik.med.uni-erlangen.de Kontakt: Dipl.-Inf. Frank Lauterwald Tel.: 09131/8527884 Fax: 09131/8528854 E-Mail: [email protected] Der Sonderforschungsbereich 539 der DFG befasst sich mit der Augenerkrankung Glaukom, auch bekannt als grüner Star. Die Arbeit des vorliegenden Projektes gliedert sich in Unterstützungstätigkeiten und eigene Forschung. Die Unterstützungstätigkeit umfasst folgende Aspekte: • Integration verschiedenster Messdaten in eine zentrale Datenbank. • Beratung über die nicht-computergestützten Aspekte der Datenverarbeitung (Integrität, Plausibilität, Datenschutz etc.) • Hilfestellung bei der Verwendung von EDV zur Verbesserung der Forschung. • Erstellung spezieller Software, wo keine Produkte ”von der Stange” verfügbar sind. Die Forschungstätigkeit umfasst z.Zt. zwei Hauptfragestellungen: 224 • Erfahrungsgemäss ändern sich die Anforderungen der Forscher schnell. Außerdem benötigen verschiedene Forscher oft ähnliche, aber nicht identische Funktionalitäten; allerdings nicht unbedingt zur gleichen Zeit. Wie kann man nun von den konkreten Anforderungen abstrahieren und antizipieren, was als nächstes gebraucht werden könnte? Das ist z.B. nötig, um zwischen einer einfachen und einer komplexeren – aber allgemeineren – Lösung abwägen zu können. Es sollen also Ansätze entwickelt werden, wie man ohne vollständige Informationen über die Anforderungen bereits ”das richtige System” bauen kann. • Inwieweit können bestimmte zur Untersuchung verwendete Geräte durch Standardhardware ersetzt werden? Neben Kostenvorteilen ergeben sich daraus gerade für die Forschung Vorteile, da z.B. normale PCs durch ihre Programmierbarkeit einfacher erlauben, die durchgeführten Experimente zu variieren. Publikationen – Jablonski, Stefan ; Petrov, Ilia ; Meiler, Christian ; Mayer, Udo: Metadata Repositories as Infrastructure for Database Oriented Applications . In: Eder, J.; Welzer, T. (Hrsg.) : CaiSE ’03 (The 15th Conference on Advanced Information Systems Engineering Klagenfurt/Velden, Austria 16.-20.06.2003). Aachen : Technical University of Aachen, 2003, S. 53-56. – ISBN 86-435-0549-8 – Jablonski, Stefan ; Lay, Rainer ; Müller, Sascha ; Meiler, Christian: Clinical pathways for glaucoma research and patient care . Erlangen : Universität ErlangenNürnberg. 2004. – Interner Bericht. 1 Seiten – Jablonski, Stefan ; Lay, Rainer ; Müller, Sascha ; Meiler, Christian ; Faerber, Matthias ; Derhartunian, Victor ; Michelson, Georg: Building a Generic Platform for Medical Screening Applications based on Domain Specific Modeling and Process Orientation . In: Ludäscher, B. and Raschid, L. (Hrsg.) : Proceedings 2005 (Second International Workshop on Data Integration in the Life Sciences San Diego 2005). Heidelberg : LNBI: Springer Verlag, 2005, S. 257-265. 10.2.5 i6sdb – stream and data bases Projektleitung: Prof. Dr. Klaus Meyer-Wegener Dipl.-Inf. Michael Daum 225 Dipl.-Inf. Frank Lauterwald Beteiligte: Kiefer, Mario; Herbst, Sebastian; Fischer, Martin; Rühr, Tobias; Schilde, Marko; Baumgärtel, Philipp; Biscay, Frederico; Zenk, Markus; Blechinger, Juiane; He, Wie; Escher, Bruno; Krause, Bernd Stichwörter: Datenströme; DSMS; Kostenmodelle; Anfrageverarbeitung; Performance Beginn: 1.1.2006 Herkömmliche Datenbanksysteme arbeiten meist transaktional auf Datenbeständen, so dass wichtige Daten persistent und konsistent gespeichert werden können. Ihr Erfolg liegt neben dem Transaktionskonzept in erster Linie an der Anwendungsneutralität und an standardisierten Anfragesprachen wie SQL. Durch die in den letzten Jahren immer günstiger gewordene Möglichkeit, Daten zu übertragen (Hardware, Leitungskapazitäten), ist die Idee entstanden, weniger wichtige, aber kontinuierlich auftretende Daten wie z.B. Serverlogs, Systemereignisse, Sensormesswerte zu übermitteln, auszuwerten und aus dieser Datenflut brauchbare aggregierte Daten zu gewinnen. Häufig ist die gewonnene Information besonders wertvoll, wenn sie mit dem Eintreffen der Datenstromtupel zeitnah generiert wird. Die übermittelten Datensätze entsprechen ähnlich wie Datenbankeinträge einem Schema, so dass auch für Datenströme anwendungsneutrale Operatoren und Anfragesprachen entwickelt wurden und bereits in ersten Datenstrommanagementsystemen (DSMS) Verwendung finden. Hierbei ist zu beachten, dass bei DSMS die Anfrage persistent und die eigentliche Datenbasis (Datenstrom) transient ist. In dem Projekt wird die Architektur vorhandener DSMS analysiert und darauf aufbauend werden geeignete Kostenmodelle für unterschiedliche Anfragen an Datenströme erstellt. Dabei werden insbesondere Eigenschaften der Datenquellen in dem Modell berücksichtigt, was eine spätere Optimierung auch über Systemgrenzen hinweg ermöglicht. Des Weiteren wird nach geeigneten Szenarien für Datenstromverarbeitung gesucht, in denen die Anwendung von DSMS den bisherigen Ansätzen klar überlegen ist. Insbesondere in der Sensordatenfusion sowie bei der Überwachung komplexer Ereignisse stellen sich Anforderungen, die durch DSMS gut gelöst werden können. Offen ist hier allerdings, was der beste Weg ist, um diese Anforderungen in eine allgemeine Anfragesprache umzusetzen. Publikationen – Lindner, Wolfgang: Securing the Borealis Data Stream Engine . In: Desai, Bipin C. (Hrsg.) : Proceedings of the 10th International Database Engineering and Applications Symposium (Database Engineering and Applications Symposium, 2006. IDEAS ’06 New Delhi Dec 11-14, 2006). 2006, S. 137-147. – ISBN 3-540-32734226 7 – Lindner, Wolfgang ; Meyer-Wegener, Klaus ; Velke, Holger: Data Stream Query Optimization Across System Boundaries of Server and Sensor . In: IEEE Computer Society (Hrsg.) : Mobile Data Management (7th International Conference on Mobile Data Management (MDM 2006) Nara, Japan May 9-13,2006). xx : xx, 2006, S. -. – ISBN 0-7695-2526-1 – Lindner, Wolfgang ; Meyer-Wegener, Klaus ; Velke, Holger: Operator Allocation in Borealis with Integrated Sensor Network Query Processors . In: Nittel, Silvia ; Kulik, Lars ; Tanin, Egemen (Hrsg.) : Mobile Location-Aware Sensor Networks (Workshop on Mobile Location-Aware Sensor Networks Nara, Japan May 13, 2006). Los Alamitos, CA, USA : IEEE CS Press, 2006, S. 155. – ISBN 0-76952526-1 – Lindner, Wolfgang ; Madden, Samuel: Data Management Issues in Disconnected Sensor Networks . In: Dadam, Peter; Reichert, Manfred (Hrsg.) : Informatik 2004 – Informatik verbindet. Band 2, Beiträge der 34. Jahrestagung der Gesellschaft für Informatik e.V. (GI) (34. Jahrestagung der GI Ulm 20. -24. Sept. 2004). Bd. 2. 2004, S. xx-xx. – ISBN 3-88579-380-6 – Lindner, Wolfgang: Towards a Secure Data Stream Management System . In: Draheim, Dirk; Weber, Gerald (Hrsg.) : Proceedings of the Trends in Enterprise Application Architecture (VLDB Workshop TEAA 2005 Trondheim, Norwegen 28. Aug. 2005). 2005, S. 114-128. – ISBN 0-7695-2577-6 10.2.6 iArch – Integratives Architekturmanagement Projektleitung: Prof. Dr. S. Jablonski Beteiligte: Dipl.-Inf. Sascha Müller Stichwörter: integratives IT-Architekturmanagement, Meta-Modellmanagement Laufzeit: 2.1.2005–31.12.2006 In mittleren und großen Unternehmen ist die eingesetzte IT-Infrastruktur oft organisch gewachsen und es existiert kein umfassendes IT-Architekturmodell. Für die IT-Abteilungen ergeben sich daraus mehrere Problemfelder: 227 • Es ist nicht mehr nachvollziehbar, wie das Zusammenspiel zwischen den Geschäftsprozessen bzw. Arbeitsabläufen und der verwendeten Soft- und Hardware ist. • Softwareentwicklung und -beschaffung sind mangels eines umfassenden Überblicks über die IT-Architektur nicht gezielt steuerbar. • Eine strategische Migration der existierenden IT-Architektur zu einer anderen Architektur ist dadurch erschwert oder oft kaum möglich. • Oftmals fehlt eine grafische Darstellung der IT-Landschaft als Kommunikationsmittel in einem Unternehmen. • Analysen der IT-Landschaft im Bezug auf Redundanzen, Strukturprobleme oder Optimierungsmöglichkeiten sind nur schwerlich möglich. Eine Lösung der genannten Probleme soll das integrative IT-Architekturmanagement liefern. Notwendig ist dazu eine integrierte Sicht auf alle relevanten Aspekte der ITAnwendungs- und Systemlandschaft, welche die Vielzahl von Verbindung zwischen den Geschäftsprozessen einerseits und der verwendeten Soft- und Hardware andererseits schafft. Architekturmanagement darf dabei nicht nur auf die Software- und Hardwarelandschaft einer Organisation fokussieren, sondern muss vielmehr als integraler Bestandteil der Aufbau- und Ablauforganisation behandelt werden. Publikationen – Müller, Sascha ; Kuhn, Walter; Meiler Christian; Petrov, Ilia ; Jablonski, Stefan: Integratives IT-Architekturmanagement . In: Handbuch der Software-Architektur. Heidelberg : dpunkt Verlag, 2006, S. 187-209. – ISBN 3-89864-372-7 10.2.7 Prozessunterstützung in der Medizin Projektleitung: Prof. Dr. Richard Lenz Dipl.-Inf. Christoph Neumann Stichwörter: Workflow-Management;WfM;Informationssystdots ; SOA; HL7 Beginn: 1.6.2007 228 Kontakt: Dipl.-Inf. Christoph Neumann Tel.: 09131/8527885 Fax: 09131/8528854 E-Mail: [email protected] Gegenstand des Projekts ”Prozessunterstützung in der Medizin” ist die Erarbeitung von Architektur- und Prozessbeschreibungsanforderungen an adaptiv evolutionäre Informationssysteme zur Unterstützung institutionsübergreifender Abläufe im Versorgungsnetz (Krankenhäuser, niedergelassene Ärzte, Labore, Kassenärztliche Vereinigungen und Apotheken). Ziele auf Anwendungsebene: • Optimierung von Daten- und Prozessqualität und Sicherstellung einer ökonomischen und effizienten Krankenversorgung • Organisatorische Abstimmung des interinstitutionellen Versorgungsprozesses unter Wahrung medizinisch sinnvoller Reihenfolgen und Bereitstellung von elektronischer Informationsübertragung • Reduktion von Fehlerrisiken • Vermeidung von Zeitverlusten wegen Doppeluntersuchungen • Messbare Verbesserungen des Versorgungsprozesses (Zeitbedarf der Anamneseerhebung, Komplikationsraten, Terminvereinbarung etc.) Ziele auf technischer Ebene: • Prozessunterstützung mit adäquater Integration von Information und Wissen (Daten), Schnittstellen (Funktion) sowie angemessener Ablaufsteuerung (Prozesse) • Lose Kopplung von Schnittstellen • Einbindung von Standards und Komponentensystemen Ziele auf methodischer Ebene: • Referenzmodell für Architektur, Prozessanalyse und -modellierung im Gesundheitswesen • Generische Methoden und Werkzeuge zur Prozessmodellierung und Prozessanalyse 229 • Referenzarchitektur zur prozessorientierten Integration von Informationssystemen • Prototyp zum Aufzeigen des Zusammenwirkens von Methoden und Werkzeugen 10.2.8 RETAVIC – Real-Time Audio-Video Conversion Projektleitung: Prof. Dr. Klaus Meyer-Wegener Beteiligte: Maciej Suchomski, M.Sc. Stichwörter: Echtzeit; Konvertierung; Video; Audio; Multimedia-Datenbank; MMDB; Multimedia Datenbankverwaltungssysteme; MMDBVS; Media Server; Multimedia Server; MMS; Formatunabhängigkeit; QoS Laufzeit: 1.2.2002–30.4.2007 Mitwirkende Institutionen: MMIS Group Das Ziel des RETAVIC-Projekts ist es, Audio- und Video-Konvertierung in Echtzeit zu realisieren, um die Funktionalität verfügbarer (oder auch neu zu entwickelnder) Multimedia-Server (MMS) und Multimedia-Datenbankverwaltungssysteme (MMDBVS) zu erweitern. Sie können dann den Endbenutzern Audio-Video-Inhalte im jeweils gewünschten Format zur Verfügung zu stellen, ohne dass diese auf die interne Speicherung Bezug nehmen müssten. Damit wird Datenunabhängigkeit gewährleistet, was bedeutet, dass das Format des ausgelieferten AV-Objekts während der Ausgabe ”on the fly” erzeugt wird, abhängig von den Wünschen des Endbenutzers in Bezug auf bestimmte Charakteristiken, die auch von der Ressourcenverfügbarkeit abhängen können (z.B. Geräte, Netzverbindung, verwendete Anwendungen). Die Konvertierung der Inhalte soll in Echtzeit erfolgen, um Verzögerungen und Speicherplatzbedarf gering zu halten. Die zeitsynchrone und kontinuierliche Struktur der Inhalte kommt diesem Ansatz entgegen. Dabei ist die Dienstgüte (Quality of Service, QoS) zu planen und auch zu kontrollieren, was nur möglich ist, wenn die gesamte Server-Software in einer geeigneten Systemumgebung abläuft. Bis heute können nur Echtzeitsysteme Dienste anbieten, die es erlauben, Prozesse mit der geforderten Ausführungsqualität zu gewährleisten. Die zu entwerfenden (und evtl. zu implementierenden) Audio-Video-Konverter müssen in einer Echtzeitumgebung (real-time environment, RTE) ablaufen, d.h. auf einem Echtzeit-Betriebssystem. Dazu müssen die sehr komplexen Algorithmen der Audio- und Videoverarbeitung an diese Umgebung angepasst werden. 230 Publikationen – Märcz, Andreas: Scheduling periodic media converters . In: WCET Analysis Workshop, Delft /NL. xx : xx, 2001. – Hamann, Claude-Joachim; Märcz, Andreas ; Meyer-Wegener, Klaus: Buffer Optimization in Realtime Media Servers Using Jitter-constrained Periodic Streams . Dresden : TU Dresden. 2001. – Interner Bericht – Meyer-Wegener, Klaus ; Suchomski, Maciej ; Militzer, Michael: Improved pdomain rate control and perceived quality optimizations for MPEG-4 real-time video applications . In: Rowe, L. A.; Vin, H. M.; Plagemann, T.; Shenoy, P. J.; Smith,, J. R. (Hrsg.) : Proceedings of the 11th ACM International Conference of Multimedia (ACM MM’03) (ACM MM’03 Berkeley, California, USA 2.-8.11.2003). New York, NY, USA : ACM Press, 2003, S. 402-411. – ISBN 158113-722-2 – Lehner, Wolfgang; Märcz, Andreas ; Meyer-Wegener, Klaus ; Schmidt, Sven ; Suchomski, Maciej: Quality-of-Service Based Delivery of Multimedia Database Objects without Compromising Format Independence . In: Knowledge Systems Institute (Hrsg.) : Proceedings of the Ninth International Conference on Distributed Multimedia Systems (DMS 2003, Miami, Florida, USA 24. – 26.09.2003). 2003, S. 90 – 93. – Märcz, Andreas ; Meyer-Wegener, Klaus ; Suchomski, Maciej: Multimedia Conversion with the Focus on Continuous Media . In: van Bommel, Patrick (Hrsg.) : Transformation of Knowledge, Information and Data: Theory and Applications. London, U.K., Hershey, PA, USA : Information Science Publishing INFOSCI, 2004, S. 235-256. – ISBN 1-59140-527-0 – Meyerhöfer, Marcus ; Meyer-Wegener, Klaus ; Suchomski, Maciej: Open and Reconfigurable Multimedia Server Architecture . In: Czeslaw, Danilowicz (Hrsg.) : Proc. 1st International Workshop on Multimedia Information Systems Technology (MMISTech’2004 in conjunction with the 4th National Conference Multimedia and Network Information Systems 2004 (MiSSI ’04) Szklarska Poreba, Poland 17.09.2004). Wroclaw, Poland : Oficyna Wydawnizcza Politechniki Wroclawskiej, 2004, S. 213-222. – ISBN 83-7085-808-2 – Meyer-Wegener, Klaus ; Militzer, Michael ; Suchomski, Maciej: LLV1: Layered Losless Video Format Supporting Multimeda Servers During Realtime Delivery . In: Anthony Vetro, Chang Wen Chen, C.-C. J.. Kuo, Tong Zhang, Qi Tian, John R. Smith (Hrsg.) : SPIE – The International Society for Optical Engineering (Veranst.) : Proceedings of SPIE Volume: 6015 Multimedia Systems and Applications 231 VIII (SPIE Optics East 2005 – Multimeda Systems and Applications VIII Boston, Massachusetts, USA 24./26.10.2005). 2005, S. 60151A.1-A.10. – Suchomski, Maciej ; Meyer-Wegener, Klaus ; Militzer, Michael: RETAVIC: Using Meta-Data for Real-Time Video Encoding in Multimedia Servers . In: WuChi Feng, Ketan Mayer-Patel (Hrsg.) : ACM (Veranst.) : Proceedings of the International workshop on Network and Operating Systems Support for Digital Audio and Video (International Workshop on Network and Operating System Support for Digital Audio and Video (NOSSDAV’05) Stevenson, Washington, USA 13.06./14.06.2005). New York, NY, USA : ACM Press, 2005, S. 81-86. 10.2.9 SeMeOr (Security Metric for Organization) Projektleitung: Weiß, Steffen Stichwörter: Sicherheit; Bewertung; Modell Beginn: 1.7.2005 Kontakt: Dipl.-Inf. Steffen Weiß Tel.: 09131/8528683 Fax: 09131/8528854 E-Mail: [email protected] Projekthintergrund Vor dem Hintergrund einer steigenden Häufigkeit und Perfidie von Angriffen auf die ITInfrastruktur von Organisationen wird es immer wichtiger, dass diese über ihren Sicherheitszustand gut informiert sind. Dazu gehört insbesondere das Wissen um Schwachstellen und das Ergreifen geeigneter Maßnahmen und damit die Bewertung der Sicherheit. In der Praxis existieren zwar für große Organisationen Standards, mit deren Hilfe eine solche Bewertung vorgenommen werden kann. Diese Standards beziehen sich aber auf das Management der IT-Sicherheit und gehen immer davon aus, dass Expertenwissen vorhanden ist. In kleineren Organisationen existiert jedoch gerade diesbezüglich ein gewisses Defizit, wodurch die Bewertungsgrundlage dieser Standards nicht erfüllt werden kann. Zudem sind die Standards aus wissenschaftlicher Ansicht als äußerst zweifelhaft anzusehen, da sie wichtige Anforderungen von Metriken nicht erfüllen. Ziel des Projektes Ziel des Projekts ist daher die Entwicklung eines Modells, welches neben einer geeigneten Darstellung des Wissens auch eine solide Bewertungsgrundlage enthält und in der Praxis einsetzbar ist. 232 Projektstatus Es wurde Konzept entwickelt, welches erlaubt, die Sicherheit von Organisationen zu modellieren und Aggregationen von Einzelaspekten zu einer gesamtheitlich(er)en Sicht vorzunehmen. Dieses Konzept wird zurzeit an Beispielen erprobt. Dabei wird untersucht, in wiefern die Modellelemente ausreichen bzw. ob und wo Erweiterungen notwendig sind. Arbeiten Folgende Arbeiten wurden bzw. werden im Rahmen des Projektes bearbeitet: • Messung des Vertraulichkeitsverlustes in Unternehmen • Sicherheitsmodellierung von Datenverarbeitungssystemen • Modellierung von Sicherheitsbedrohungen und Gegenmaßnahmen in Firmennetzwerken • Modellierung von Sicherheitsvorfällen 10.2.10 SFB 539, Teilprojekt C5: Intelligente Vernetzung und Adaption von ITSystemen zur Qualitätssteigerung Stichwörter: Datenlogistik; Integration; Prozessorientierung Laufzeit: 1.7.2003–30.6.2006 Förderer: Deutsche Forschungsgemeinschaft Mitwirkende Institutionen: Augenklinik mit Poliklinik der Universität Erlangen-Nürnberg Lehrstuhl für Medizinische Informatik SFB 539 (Glaukome einschließlich Pseudoexfoliationssyndrom (PEX)) hier: Teilprojekt C5: Intelligente Vernetzung und Adaption von IT-Systemen zur Qualitätssteigerung der Behandlung von Glaukompatienten Projektbeschreibung (Teilprojekt C5) Ausgangslage Für eine effektive und erfolgreiche Behandlung von Glaukompatienten ist eine regelmäßige Kontrolle vieler Faktoren (Augeninnendruck, Medikation, Allergien, Form 233 und Grad des Glaukoms, etc.) unter Berücksichtung des individuellen Patientenkontexts (Krankheitsverlauf, Behandlungshistorie etc.) unerlässlich. Viele dieser Informationen werden inzwischen elektronisch verwaltet. Eine effektive Forschung im Bereich der Glaukome ist nur möglich, wenn sich die dabei verwendeten medizinischen Daten in einem konsistenten, aufeinander abgestimmten Zustand befinden. Viele dieser Daten werden aus erhobenen Patientendaten abgeleitet. Aufgrund der großen Menge der anfallenden Daten sowohl zur direkten Patientenversorgung als auch zur Unterstützung der Forschung und wegen der dabei einzuhaltenden Konsistenzanforderungen ist die elektronische Verwaltung dieser Daten notwendig. Folgende Vorteile verspricht man sich aufgrund einer solchen Verwaltung: • Qualitätssteigerung bei der Behandlung der Patienten • Erweiterung und Ausbreitung der Forschungstätigkeit • Möglichkeiten erweiterter Analysen, Auswertungen, Benchmarking-Verfahren Szenarien Datenlogistik zur Verbesserung der Datengrundlage für statistische Auswertungen (Teilprojekt C1) Um der statistischen Fragestellung nachzugehen, welche Auswirkungen der Verlust von Nervenfasern auf das Gesichtsfeld von Patienten hat, werden aus Sicht der Statistik Daten aus folgenden Systemen benötigt: Neben ausgewählten anamnestischen Daten aus dem Glaukomregister müssen Gesichtsfelddaten, die über das System ”Octopus” erhoben werden, in die Statistikdatenbank eingespielt werden. Zusätzlich sind Rohdaten notwendig, die durch multifokale Elektroretinographie (multifokales ERG) und durch multifokal visuell evozierte kortikale Potentiale (multifokales VEP) erhoben werden. Hierbei sind auch Bilddaten in größeren Mengen der Statistikdatenbank zuzuführen. Als wichtige Voraussetzung aus Sicht der Statistik ist zu nennen, dass unbearbeitete und uninterpretierte Rohdaten aus den oben genannten Systemen geliefert werden müssen, um eine unverfälschte Statistik zu ermöglichen. Die Daten sollten eben auf Grund dieser Anforderung möglichst direkt nach der Erhebung in die Statistikdatenbank übermittelt werden (Teilprojekt Z), s. http://www6.informatik.unierlangen.de/DE/research/projects/SFB539/images/intdalog-1.png. Unter Beachtung des Datenschutzes sind die Daten anonymisiert zu übermitteln und über eine eigene globale Patientenidentifikationsnummer zusammenzuführen. Diese darf keinen direkten Rückschluss auf die Identität der Patienten ermöglichen. Im Rahmen der Selbst-Tonometrie werden die Augeninnendruckwerte für das linke und rechte Auge vom Patienten selbst erhoben und an die Augenklinik – ergänzt um die 234 Blutdruckwerte und die Herzfrequenz – übermittelt (siehe http://www6.informatik.unierlangen.de/DE/research/projects/SFB539/images/intdalog-2.png. Wie in der Abbildung dargestellt müssen in diesem konkreten Kontext die Daten aus dem Dialogsystem in das Glaukomregister überführt werden. Dieser wird anschließend in den patientenspezifischen Kontext gesetzt, d.h. mit den bisherigen Werten und der Anamnese des jeweiligen Patienten über eine globale Patientenidentifikationsnummer zusammengeführt. Dieser in den patientenspezifischen Kontext gesetzte Messbericht muss nach medizinisch und klinisch motivierten Regeln geprüft und – wenn notwendig – dem behandelnden Arzt vorgelegt werden. Zu diesem Zweck können z.B. weitere Hintergrundinformationen für den behandelnden Arzt hinzugefügt werden, wie sie beispielsweise für die Ophthalmologie unter www.onjoph.com zu finden sind. Bausteine des Gesamtsystems IntDaLog Die Abbildung http://www6.informatik.uni-erlangen.de/DE/research/projects/SFB539/ images/intdalog-3.png vermittelt einen Gesamtüberblick über die zu bearbeitenden Themengebiete. Der Pfeil Dateneingabe symbolisiert dabei die verschiedenen Formen der Datenerhebung. Beispielsweise können hier die Telefoneingabe der medizinischen Daten aus der Selbst-Tonometrie durch den Patienten oder die Erfassung von Operationsergebnissen über eine web-basierte Oberfläche durch den Arzt aufgeführt werden. Der Pfeil Datenpräsentation symbolisiert die unterschiedlichen Ausgabemechanismen, die Information z.B. mit den Patienten (Patienteninformationssystem) oder dem Arzt kommunizieren. Das im Zentrum der Abbildung dargestellte Basissystem zur intelligenten Datenlogistik (IntDaLog) ermöglicht es, dem Arzt die Datenflüsse nach medizinischen und klinischen Regeln prozessorientiert zu selektieren und somit gezielt (z.B. passend zu einem Behandlungsschritt, passend für den Patienten) zur Verfügung zu stellen. Der untere Teil der Abbildung deutet die technische Integration des Systems in bestehende Lösungen an. Methode 1. Erfassen der klinischen Abläufe Zunächst werden im klassischen Sinn die relevanten medizinischen Abläufe u.a. des Untersuchungsgebiets ”Diagnostik und konservative Therapie von Glaukompatienten” untersucht. Daraus ergibt sich ein prozessorientiertes Ablaufmodell, aus dem abzulesen ist, welches IT-System wann welche Daten produziert (d.h. ”generiert”, beispielsweise durch Benutzereingabe) bzw. konsumiert (d.h. verwendet, beispielsweise in Auswertungen). Dieses Modell gibt die bevorzugte Verarbeitungssituation der medizinischen Anwendung wieder. Durch die prozessorientierte Vorgehensweise kann sichergestellt werden, dass die gefundenen Abläufe optimiert gestaltet worden sind. 2. Ableiten der notwendigen Datenver- und -entsorgung der involvierten IT-Systeme Die prozessorientierte Modellierung der Vorgänge zur Behandlung von Glaukompatienten soll allerdings nicht der Entwicklung eines klassischen medizinischen Workflows 235 dienen, sondern als Ausgangspunkt der intelligenten Datenlogistik dienen. Ausgehend von einem optimierten Prozessmodell wird kontrolliert, welche IT-Systeme mit welchen Daten (aus anderen IT-Systemen) versorgt werden müssen, um eine qualitativ hochwertige Behandlung von Glaukompatienten zu ermöglichen. Zusammengenommen spezifizieren diese Anforderungen die Aufgabenstellung für das intelligente Datenlogistiksystem IntDaLog. Diese Aufgaben sind ihrerseits als Datenlogistik-Prozesse zu formulieren. Alle notwendigen Informationen hinsichtlich der Datenver- und -entsorgung, also insbesondere Schnittstellenbeschreibungen und Datenfluss, werden dabei in einem zentralen Repositorium beschrieben. Vorteile der sekundären Prozessunterstützung Sie ermöglicht den medizinischen Anwendern weiterhin größtmögliche Freiheit und Flexibilität bei der Arbeitsgestaltung. Die eigentlichen medizinischen Prozesse werden durch die Datenlogistik nicht direkt gesteuert. Diese Flexibilität kann durch die konventionelle Anwendung von Workflow-Konzepten in medizinischen Anwendungen nicht erreicht werden. Aufgrund der aus Anwendersicht im Hintergrund ablaufenden intelligenten Datenlogistik, d.h. der intelligenten Ent- und Versorgung von IT-Systemen mit relevanten Daten, trägt der Ansatz zur Qualitätssteigerung in medizinischen Anwendungsprozessen bei. Die Anwender können – wie bisher – die gewohnten IT-Systeme benutzen. Sie müssen nicht noch ein weiteres IT-System bedienen. Publikationen – Jablonski, Stefan ; Petrov, Ilia ; Meiler, Christian ; Mayer, Udo: Metadata Repositories as Infrastructure for Database Oriented Applications . In: Eder, J.; Welzer, T. (Hrsg.) : CaiSE ’03 (The 15th Conference on Advanced Information Systems Engineering Klagenfurt/Velden, Austria 16.-20.06.2003). Aachen : Technical University of Aachen, 2003, S. 53-56. – ISBN 86-435-0549-8 – Müller, Sascha ; Lay, Rainer ; Meiler, Christian ; Jablonski, Stefan: Integration in der medizinischen Anwendung: Prozessbasierte Datenlogistik . In: Hasselbring, W.; Reichert, M. (Hrsg.) : Tagungsband EAI-Workshop 2004 (Workshop Enterprise Application Integration (EAI 2004) Oldenburg 2004). 2004, S. 99-105. – Jablonski, Stefan ; Lay, Rainer ; Meiler, Christian ; Müller, Sascha ; Hümmer, Wolfgang: Process Based Data Logistics in Clinical Environments . In: Chamoni, P.; Deiters, W.; Gronau, N.; Kutsche, R. D., Loos, P.; Müller-Merbach, H.; Rieger, B.; Sandkuhl, K. (Hrsg.) : Multikonferenz Wirtschaftsinformatik (MKWI) 2004. (Knowledge Supply and Information Logistics in Enterprises and Networked Organizations Essen 2004). Bd. 2. 2004, S. 230-243. 236 – Jablonski, Stefan ; Lay, Rainer ; Meiler, Christian ; Müller, Sascha: Process Based Data Logistics: A solution for Clinical Integration Problems . In: Rahm, E. (Hrsg.) : Data Integration in the Life Sciences, LNBI 2994 (First International Workshop on Data Integration in the Life Sciences (DILS 2004)). LNBI : Springer Verlag, 2004, S. 31-46. – Müller, Sascha ; Gerdsen, Frederic ; Prokosch, Hans-Ulrich ; Jablonski, Stefan: Standardisierte Kommunikation medizinischer Befunddaten aus einem GlaukomScreening-Programm in eine elektronische Krankenakte mittels SCIPHOX/CDA . In: Klar, R., Köcke, W., Kuhn, K., Lax, H. Weiland, S., Zaiß, A. ; Online-Artikel (Hrsg.) : Tagungsband zu GMDS 2005 (GMDS 50. Jahrestagung 2005 Freiburg o.A.). o. O. : o.A., 2005, S. 121-123. – Gerdsen, Frederic ; Jablonski, Stefan ; Müller, Sascha ; Prokosch, Hans-Ulrich ; Bader, Elisabeth ; Poljak, Maria: Standardized Exchange of Medical Data between two Different Screening-Programs and an Electronic Health Record using CDA/SCIPHOX . In: J. Qual. Life Res. Vol. 3 (2005), Nr. Issue 2, S. 141-144 – Jablonski, Stefan ; Lay, Rainer ; Müller, Sascha ; Meiler, Christian: Clinical pathways for glaucoma research and patient care . Erlangen : Universität ErlangenNürnberg. 2004. – Interner Bericht. 1 Seiten – Jablonski, Stefan ; Lay, Rainer ; Müller, Sascha ; Meiler, Christian ; Faerber, Matthias ; Derhartunian, Victor ; Michelson, Georg: Building a Generic Platform for Medical Screening Applications based on Domain Specific Modeling and Process Orientation . In: Ludäscher, B. and Raschid, L. (Hrsg.) : Proceedings 2005 (Second International Workshop on Data Integration in the Life Sciences San Diego 2005). Heidelberg : LNBI: Springer Verlag, 2005, S. 257-265. – Jablonski, Stefan ; Lay, Rainer ; Meiler, Christian ; Müller, Sascha ; Hümmer, Wolfgang: Data Logistics as a Means of Integration in Healthcare Applications . In: N.N. (Hrsg.) : Proceedings of the 2005 ACM Symposium on Applied Computing (SAC) (Special Track on ”Computer Appplications in Health Care”). o.O. : o.A., 2005, S. 236-241. – Gerdsen, Frederic ; Müller, Sascha ; Bader. E. ; Poljak, M. ; Jablonski, Stefan ; Prokosch, Hans-Ulrich: Einsatz von CDA/SCIPHOX zur standardisierten Kommunikation medizinischer Befunddaten zwischen einem Schlaganfall-/GlaukomScreening-Programm und einer elektronischen Gesundheitsakte (EGA) . In: N.N. (Hrsg.) : Proceedings of Telemed 2005 (Telemed 2005 Berlin 2005). Berlin : o.V., 2005, S. 124-137. 237 – Jablonski, Stefan ; Lay, Rainer ; Meiler, Christian ; Müller, Sascha: Process Oriented Knowledge Management to Support Clinical Pathway Execution . In: Althoff, Klaus-Dieter, Dengel Andreas; Bergmann, Ralph; Nicj, Makus; Berghofer, Thomas (Hrsg.) : WM 2005: Professional Knowldege Management Experience and Visions (Veranst.) : Proceedings of the Workshop Current Aspects of Knowledge Management in Medicine (KMMM05) (Current Aspects of Knowledge Management in Medicine (KMMM05) Kaiserslautern 2005). Kaiserslautern : DFKI GmbH, 2005, S. 305-308. – ISBN 3-00-016020-5 – Gerdsen, Frederic ; Müller, Sascha ; Jablonski, Stefan ; Prokosch, Hans-Ulrich: Standardized Exchange of Medical Data between a Research Database, an Electronic Patient Record and an Electronic Health Record using CDA/SCIPHOX . In: American Medical Informatics Association ; xx (Hrsg.) : American Medical Informatics Association’s Annual Symposium (AMIA 2005 Washington, D.C., USA o.A.). 2005, S. o.A.. 10.3 Studien- und Abschlussarbeiten – Diplomarbeit: Konzeption und Realisierung eines Generators zur Erstellung und Visualisierung einer Ausführungsumgebung für Prozessmanagementsysteme Bearbeiter: Manuel Götz (beendet am 02.01.2006) Betreuer: – Master Thesis: Knowledge Management Portals Bearbeiter: Min Ma-Müller (beendet am 13.01.2006) Betreuer: – Master Thesis: Enrichment of Webpages with Semantical Information / Kombination von Webseiten mit Semantischer Information Bearbeiter: Vijay Meda (beendet am 18.01.2006) Betreuer: – Master Thesis: Anreicherung von Webseiten mit Semantischen Informationen / Enrichment of Webpages with Semantical Information Bearbeiter: Medja Vijay (beendet am 19.01.2006) Betreuer: – Diplomarbeit: SPICE zwischen internatioalen Engineering-Standards und Prozesskennzahlen Bearbeiter: Marco Paulus (beendet am 26.01.2006) Betreuer: – Studienarbeit: Datenbankbasierte Integration in einem medizinischen ScreeningNetzwerk Bearbeiter: Ulrike Steinbach (beendet am 30.01.2006) Betreuer: – Studienarbeit: Entwurf und Umsetzung eines Content Storehouse Bearbeiter: Robert Nagy (beendet am 01.02.2006) Betreuer: 238 – Studienarbeit: Konzept und Gestaltung der Anwender-Interaktion mit SKM Bearbeiter: Andreas Vilinski (beendet am 01.02.2006) Betreuer: – Studienarbeit: The Real-Time Implementation of AAC Encoder in DROPS (Anbindung des Medienservers ”MultiMonster” an das DROPS Echtzeitbetriebssystem) Bearbeiter: Vladimir Nikolov (beendet am 10.02.2006) Betreuer: Prof. Dr. Klaus Meyer-Wegener – Diplomarbeit: Konzeption und Realisierung einer Kommunikationskomponente zwischen elektronischer Krankenakte und medizinischer Forschungsdatenbank Bearbeiter: Stefanie Müller (beendet am 15.02.2006) Betreuer: – Diplomarbeit: Entwicklung eines Suchverfahrens zur Ähnlichkeitsanalyse von MALDI-ToF-Daten Bearbeiter: Alexander Humphreys (beendet am 16.02.2006) Betreuer: Prof. Dr. Klaus Meyer-Wegener; Kai Darsow; Dr. Harald Lange – Studienarbeit: Software zur Verspätungsanalyse im Projekt RUBIN der VAG Bearbeiter: Alexander Zinchenko (beendet am 16.02.2006) Betreuer: Prof. Dr. Klaus Meyer-Wegener – Studienarbeit: Datenbankgestützte Auswertung der Protokolldaten eines LizenzServers Bearbeiter: Quang Di Phung (beendet am 28.02.2006) Betreuer: Prof. Dr. Klaus Meyer-Wegener – Master Thesis: A meta data based approach for generating execution environments for clinical pathways using aspect oriented process specifications Bearbeiter: Bernhard Volz (beendet am 12.03.2006) Betreuer: – Diplomarbeit: Entwicklung eines Datenintegrationswerkzeugs zur automatisierten Zusammenführung von Produktionsdatenbeständen in einer zentralen Configuration Management Database (CMDB) nach ITIL Bearbeiter: Daniela Encheva (beendet am 28.03.2006) Betreuer: – Studienarbeit: Design und Implementierung einer modellübergreifenden Analysekomponente für ein integratives IT-Architekturmanagementsystem Bearbeiter: Benedikt Horneber (beendet am 01.04.2006) Betreuer: – Studienarbeit: Konzeption und Entwicklung einer Verwaltungskomponente für IT-Architekturmanagementdaten Bearbeiter: Marko Schilde (beendet am 01.04.2006) Betreuer: – Studienarbeit: Konzepte zur nachrichtenbasierten Steuerung von entfernten Rechnern am Beispiel von Apache James und SOAP via SMTP Bearbeiter: Stefan Kraus (beendet am 27.04.2006) Betreuer: 239 – Studienarbeit: Evaluierung von Persistenzframeworks Bearbeiter: Tobias Schwab (beendet am 16.05.2006) Betreuer: – Studienarbeit: Entwurf, Implementierung fein-granularer Sperrenverwaltung im Rahmen von iRM/RMS Bearbeiter: Anna Kruszynski (beendet am 18.05.2006) Betreuer: – Studienarbeit: Konzeption und prototypische Realisierung eines Systems zur dynamischen Auswahl und Präsentation von E-Services in einem Gesundheitsportal Bearbeiter: Jochen Graeber (beendet am 30.05.2006) Betreuer: – Studienarbeit: Ein Helpdesk-System für SENSO Bearbeiter: Alexander Hantzsch (beendet am 31.05.2006) Betreuer: Prof. Dr. Klaus Meyer-Wegener – Diplomarbeit: Konzeption und prototypische Implementierung einer Integrationskomponente für IT-Architekturmodelle Bearbeiter: Michael Schmidt (beendet am 06.06.2006) Betreuer: – Diplomarbeit: Konzeption und Implementierung einer generischen Integrationskomponente für Workflowmanagementsysteme zur Umsetzung der Autorenprozesse eines Kfz-Diagnosesystems Bearbeiter: Jörg Arrenberg (beendet am 15.06.2006) Betreuer: – Studienarbeit: Eine Fußball-Bundesliga-Datenbank Bearbeiter: Stefan Pfab (beendet am 30.06.2006) Betreuer: Prof. Dr. Klaus Meyer-Wegener – Diplomarbeit: Entwurf und Realisierung eines plattformunabhängigen Performance-Vorhersagekonzepts für Java Enterprise Komponenten Bearbeiter: René Pongratz (beendet am 03.07.2006) Betreuer: Prof. Dr. Klaus Meyer-Wegener – Studienarbeit: Evaluierung von ORACLE-InterMedia für die TouristikAnwendung OCEAN Bearbeiter: Moritz Goeb (beendet am 24.07.2006) Betreuer: Prof. Dr. Klaus Meyer-Wegener – Diplomarbeit: Prozesse für die mobile rechnergestützte Protokollierung bei Begehungen und Abnahmen von Montageergebnissen vor Ort Bearbeiter: Jens Schiffers (beendet am 24.07.2006) Betreuer: Prof. Dr. Klaus Meyer-Wegener – Studienarbeit: Echtzeit Audiokonvertierung und Formatunabhängigkeit für Multimedia Datenbank Server (Real-Time Audi Conversion and Format Independence for Multimedia Database Servers) Bearbeiter: Florian Penzkofer (beendet am 31.07.2006) Betreuer: Prof. Dr. Klaus Meyer-Wegener 240 – Studienarbeit: Entwicklung eines modellbasierten Integrationskonzeptes zum automatischen Wissenserwerb bei der Ausführung klinischer Prozesse Bearbeiter: Stephanie Meerkamm (beendet am 01.08.2006) Betreuer: – Studienarbeit: Messung des Vertraulichkeitsverlustes in Unternehmen Bearbeiter: Martin Wahl (beendet am 11.08.2006) Betreuer: Prof. Dr. Klaus Meyer-Wegener; Dipl.-Inf. Steffen Weiß – Studienarbeit: Entwurf und prototypische Realisierung eines Integrationskonzeptes für externe Applikationen in eine generierte Prozessausführungsumgebung Bearbeiter: Stefan Baricak (beendet am 14.08.2006) Betreuer: – Diplomarbeit: Konzeption und Implementierung einer Integrationskomponente zur automatisierten Wissensablage und zum interaktiven Wissenszugruff in klinischen Prozessen Bearbeiter: Tobias Fabisch (beendet am 15.08.2006) Betreuer: – Diplomarbeit: An MPEG-7 and MPEG-21 compatible storage layer for the MultiMonster Multimedia Server Bearbeiter: Gergely Nagy (beendet am 31.08.2006) Betreuer: Prof. Dr. Klaus Meyer-Wegener – Studienarbeit: Subdomain von Methoden zur Performanzvorhersage von Softwarekomponenten-Assemblies Bearbeiter: Benjamin Gröbner (beendet am 31.08.2006) Betreuer: Prof. Dr. Klaus Meyer-Wegener – Master Thesis: The real-time implementation of DivX converter in DROPS supporting QoS for AV streams Bearbeiter: Arthur Mielimonka (beendet am 05.09.2006) Betreuer: – Studienarbeit: Eine XML–Darstellung für Literaturquellen mit Generierung von BiBTeX, HTML und weiteren Ausgaben Bearbeiter: Michael Lehmeier (beendet am 25.9.2006) Betreuer: Prof. Dr. Klaus Meyer-Wegener – Diplomarbeit: Methodischer Vergleich von Konzepten und Werkzeugen zur Modellierung von Geschäftsprozessen Bearbeiter: Azita Shoshak (beendet am 01.10.2006) Betreuer: – Diplomarbeit: Konzeption und Implementierung eines Grid-Computing Frameworks am Beispiel der Monte-Carlo-Simulation zur Unternehmensbewertung Bearbeiter: Stefan Hausmann (beendet am 02.10.2006) Betreuer: Prof. Dr. Klaus Meyer-Wegener – Diplomarbeit: Eine zentrale Bilddatenbank für die FAU Bearbeiter: Oleksandr Bezergikov (beendet am 20.10.2006) Betreuer: Prof. Dr. Klaus Meyer-Wegener 241 – Studienarbeit: Konzeption und Implementierung einer webbasierten Anwendung für das Management von Service Level Agreements in servicebasierten Wertschöpfungsnetzen Bearbeiter: Thomas Saffer (beendet am 30.10.2006) Betreuer: Prof. Dr. Klaus Meyer-Wegener – Diplomarbeit: Eine Datenbank von Messdaten aus Fahrszenarien für Tests von Fahrerassistenzsystemen Bearbeiter: Vladimir Entine (beendet am 01.11.2006) Betreuer: Prof. Dr. Klaus Meyer-Wegener – Diplomarbeit: Methoden zur Laufzeiteinschätzung bei Schema- und Datenanpassungen für Software der DATEV eG Bearbeiter: Jochen Graeber (beendet am 02.11.2006) Betreuer: Prof. Dr. Klaus Meyer-Wegener – Diplomarbeit: Aspekte des Prozess- und Deltamanagements für Datawarehouse Anwendungen am Beispiel des Oracle Datawarehouse Builders Bearbeiter: Vladimir Vilinski (beendet am 01.12.2006) Betreuer: – Diplomarbeit: Entwurf und Realisierung eines Metadatenkatalogs für deskriptive Anfragen an Datenstromquellen Bearbeiter: Robert Nagy (beendet am 11.12.2006) Betreuer: Dipl.-Inf. Michael Daum – Studienarbeit: Modellierung von Sicherheitsbedrohungen und Gegenmaßnahmen in Firmennetzwerken Bearbeiter: Thomas Hentschke (beendet am 12.01.2007) Betreuer: – Studienarbeit: Aufbau einer Datenbank als Basis des Virtual Web Plant von AREVA und der AR-Software zur Überlagerung von Fotos mit 3D-Moodellen Bearbeiter: Tobias Schwab (beendet am 15.01.2007) Betreuer: Prof. Dr. Klaus MeyerWegener – Studienarbeit: Konzept und Prototyp einer Remote-API für SKM Bearbeiter: Tobais Seutter (beendet am 15.01.2007) Betreuer: – Diplomarbeit: Entwurf und Realisierung eines Tools zur Performanzanalyse bestehender Implementierungen von DSMS Bearbeiter: Marco Schilde (beendet am 31.01.2007) Betreuer: Dipl.-Inf. Michael Daum – Diplomarbeit: Konzeption und Implementierung einer graphischen Oberfläche für das Data-Warehouse-Design Bearbeiter: Alexander Heimlich (beendet am 31.01.2007) Betreuer: Prof. Dr. Klaus Meyer-Wegener – Studienarbeit: Vorhersage nichtfunktionaler Eigenschaft von Softwaresystemen mit zustandslosen Komponenten Bearbeiter: Andreas Böhm (beendet am 09.02.2007) Betreuer: Prof. Dr. Klaus Meyer-Wegener 242 – Master Thesis: Evaluierung von Datamining-Verfahren für die Generierung von Subdomains Bearbeiter: Pascal Eversberg (beendet am 15.02.2007) Betreuer: Prof. Dr. Klaus Meyer-Wegener – Master Thesis: Automatische Generierung von Performanzmodellen basierend auf Messdaten aus dem Compadre-Komponentenrepository (Automatic Generation of Performance Models based on Measurement Data) Bearbeiter: Krasimir Zhelev (beendet am 19.03.2007) Betreuer: Prof. Dr. Klaus Meyer-Wegener – Diplomarbeit: Sicherheitsmodellierung von Datenverarbeitungssystemen Bearbeiter: Stefan Pfab (beendet am 29.03.2007) Betreuer: Prof. Dr. Klaus MeyerWegener; Dipl.-Inf. Steffen Weiß – Diplomarbeit: Evaluierung der OSGI Service Platform und gewählter Open Source Projekte Bearbeiter: Peter Schlez (beendet am 30.03.2007) Betreuer: Dipl.-Inf. Florian Irmert – Studienarbeit: Vorhersage nichtfunktionaler Eigenschaften von Softwaresystemen mit zustandsbehafteten Komponenten Bearbeiter: Matthias Bott (beendet am 31.03.2007) Betreuer: Prof. Dr. Klaus Meyer-Wegener – Studienarbeit: Entwicklung eines Laufzeitadaptionssystems auf Basis des OSGiFrameworks Bearbeiter: Thomas Fischer (beendet am 22.04.2007) Betreuer: Dipl.-Inf. Florian Irmert – Studienarbeit: Entwicklung eines Laufzeitsystems zur Auswertung paralleler und dynamisch variabler Datenstromanfragen auf heterogenen Datenquellen Bearbeiter: Sebastian Herbst (beendet am 23.04.2007) Betreuer: Dipl.-Inf. Michael Daum – Diplomarbeit: Architektur-Analyse von Open-Source-Datenbanksystemen Bearbeiter: Frank Mattauch (beendet am 30.04.2007) Betreuer: Dipl.-Inf. Florian Irmert – Diplomarbeit: Integration dynamischer aspektorientierter Programmierung in die OSGi Service Platform Bearbeiter: Markus Weiten (beendet am 02.05.2007) Betreuer: Dipl.-Inf. Florian Irmert – Bachelor Thesis: Modellierung von Sicherheitsvorfällen (Modelling of security incidents) Bearbeiter: Marco Ulherr (beendet am 18.05.2007) Betreuer: Prof. Dr. Klaus Meyer-Wegener; Dipl.-Inf. Steffen Weiß – Studienarbeit: Evaluierung und Erweiterung eines plattformunabhängigen Performanz-Vorhersagekonzepts für Java-Komponenten Bearbeiter: Christian Gesell (beendet am 30.06.2007) Betreuer: Prof. Dr. Klaus Meyer-Wegener 243 – Diplomarbeit: Datenstromverwaltungssysteme im medizinischen Umfeld Bearbeiter: Tobias Rühr (beendet am 31.07.2007) Betreuer: Dipl.-Inf. Michael Daum; PD Dr. Wolfgang Lindner – Studienarbeit: Entwurf und Realisierung ausgewählter Aspekte eines Speicherprofilers für Enterprise Java Beans Bearbeiter: Alexander Danilevich (beendet am 17.08.2007) Betreuer: Prof. Dr. Klaus Meyer-Wegener – Diplomarbeit: Verbesserung der Anwendungsprozesse und Einführung qualitätssichernder Maßnahmen im EDV-unterstützten verfahrenstechnischen Engineering Bearbeiter: Tobias Simmler (beendet am 07.09.2007) Betreuer: Prof. Dr. Klaus Meyer-Wegener – Diplomarbeit: Auswahl von Datensicherungskonzepten für Windows-Clients Bearbeiter: Martin Wahl (beendet am 28.09.2007) Betreuer: Prof. Dr. Klaus MeyerWegener – Diplomarbeit: Programm zur Erfassung eines Sicherheitsmodells Bearbeiter: Bernd Krause (beendet am 02.11.2007) Betreuer: – Studienarbeit: Entwicklung einer Kommunikationskomponente zur Interaktion zwischen Persönlichen Assistenten und Prozessakteuren Bearbeiter: Matthias Meitner (beendet am 30.11.2007) Betreuer: Dipl.-Inf. Stefan Winkler; Prof. Dr. Klaus Meyer-Wegener – Diplomarbeit: Konzeption eines Prozessnavigators zum integrierten Prozess- und Projektmanagement in der Produktentwicklung Bearbeiter: Stephanie Meerkamm (beendet am 03.12.2007) Betreuer: Prof. Dr. Richard Lenz – Diplomarbeit: Konzept und prototypische Entwicklung eines systemübergreifenden Data Management Layer auf Basis eines bestehenden Plattformkonzeptes für medizinische Einzelplatzsysteme Bearbeiter: Tobias Fabisch (beendet am 19.12.2007) Betreuer: Dipl.-Inf. Frank Lauterwald 244 11 Professur für Informatik (Datenmanagement) Die Professur für Informatik wurde zum 01. April 2007 mit Prof. Dr.-Ing. Richard Lenz besetzt. Allgemeine Angaben sowie Details zu Forschungsprojekten und -schwerpunkten finden sich unter den Eintragungen des Lehrstuhls 6 (Datenmanagement) 245 12 Lehrstuhl für Informatik 7 (Rechnernetze und Kommunikationssysteme) Anschrift: Martensstr. 3, 91058 Erlangen Tel.: +49 9131 85 27411 Fax: +49 9131 85 27409 E-Mail: [email protected] Leitung: Prof. Dr.-Ing. Reinhard German Honorarprofessoren: Hon.-Prof. Dr.-Ing. Hansjörg Fromm, IBM Deutschland GmbH Prof. i.R.: Prof. a. D. Dr.-Ing. Ulrich Herzog Sekretariat: Erika Hladky Gerti Pastore Wiss. Mitarbeiter: Abdalkarim Awad, M. Sc. Dipl.-Inf. Isabel Dietrich Dr.-Ing. Falko Dressler Dr.-Ing. Winfried Dulz Dipl.-Inf. Gerhard Fuchs Dr.-Ing. Armin Heindl Thomas Herpel, M. Sc. Dipl.-Inf. Kai-Steffen Jens Hielscher Dr.-Ing. Ulrich Klehmet Dipl.-Inf. Kemal Köker Dipl.-Inf. Tobias Limmer Dipl.-Inf. Christoph Sommer Externe Doktoranden : Feng Chen, M. Sc. Dipl.-Inf. Florian Prester Dipl.-Inf. Stefan Schreieck Externes Lehrpersonal: Dr.-Ing. Klaudia Dussa-Zieger Dr.-Ing. Uwe Hehn Nichtwiss. Personal: Chris Moog Matthias Schäfer 246 Karlheinz Schramm Our research can be divided into the areas quality-of-service (QoS)-oriented system design and autonomic networking. In QoS-oriented system design we focus on the systematic design of networked and embedded systems. The vision is to provide model-based tool support over the whole engineering cycle in a seamless way to yield systems optimized with respect to QoS issues. Quality-of-service is understood as an umbrella covering various aspects such as traditional performance measures (e.g., throughput of a network, system response time, loss rate, etc.) and dependability measures (e.g., reliability of a network, availability of a server system, etc.) but also real time, energy efficiency, security, and economics. For the QoS-oriented system design, modeling in its various aspects plays a key role and is complemented by measurements and tests. Models are used for system specification (the group is experienced in using SDL, MSC, and UML and related tools), stochastic analysis and simulation (experience exists in using queuing networks, stochastic Petri nets, UML models, and several simulation tools), real-time analysis, HW/SW co-design (synthesis and optimization starting from high-level models such as SDL and graph models) and modular software engineering for mobile and reconfigurable components (driven by UML models). Test cases are also generated from high-level models and provide information about the functional and QoS-related system behavior. Measurements are performed for selected experimental networks (e.g., a cluster-based Web-server, a soccer robot team, a WLAN, a sensor network) and are used to validate and calibrate the models. The autonomic networking research primarily focuses on autonomous sensor/actuator networks that consist of a large number of small and cheap sensor nodes and a team of mobile robots. Sensor nodes contain a sensing unit, a processor, energy supply, and a wireless communication adapter; sensor networks can be used to collect, process, and communicate measurement data. Such systems provide many design challenges on several abstraction layers, including medium access control, ad-hoc routing, self-organization, large-scale distributed information processing in the presence of severe resource restrictions, dynamic topologies and frequent failures. Mobile robots extend the possibilities of stationary sensor networks by the abilities of locomotion and real interaction with the environment. Important research questions in both stationary as well as mobile sensor networks are QoS aspects such as energy efficiency, performance, dependability, and security. We also investigate how concepts from cellular and molecular biology (e.g., cellular signaling pathways) can be applied in autonomous sensor/actuator networks. Finally, we work on new concepts for network monitoring and intrusion detection in the area of network security. As a major event of our group in 2006, we organized the 13th GI/ITG Conference on Measurement, Modeling and Evaluation of Computer and Communication 247 Systems (in German: Messung, Modellierung und Bewertung von Rechensystemen, www.mmb2006.org), which took place in Nuremberg, Germany, in March 27-29. The MMB is the main forum in Germany covering all aspects of performance evaluation of systems including networks, computer architectures, distributed systems, software, workflow and logistics systems. After its inception in 1981, we celebrated the 25th anniversary of this conference series. With two additional workshops • ITG FA 6.2 Workshop on Model-Based Testing • GI/ITG Workshop on Non-Functional Properties of Embedded Systems different but related research communities exchanged their ideas: Model-Based Testing is connected with performance evaluation by the use of similar models and by the similarity between quality-of-service testing and performance measurements. Non-Functional Properties of Embedded Systems refer to performance, dependability, security, and realtime as well as energy efficiency and costs of such systems which are increasingly heterogeneous and networked. Plenary talks (one from each community) were given by • Prof. Ian Akyildiz (Georgia Institute of Technology, USA • Prof. Jan Tretmans (University of Nijmegen, Niederlande) • Prof. Hermann Kopetz (TU Wien, Österreich) More than 100 researchers from academia and industry participated in this conference event, which was supported by the GI e.V., the ITG, the DFG, the Fraunhofer Institute IIS and other industrial partners. The MMB 2006 had 54 submissions by authors from 15 countries; 25 full papers were accepted for the proceedings along with 11 short descriptions of software tools presented at the conference: R. German and A. Heindl (Editors). Proceedings of the 13th GI/ITG Conf. on Measuring, Modelling and Evaluation of Computer and Communication Systems (MMB, March 2006, Nürnberg). VDE Verlag, Berlin/Offenbach, 2006 (ISBN 3-8007-2945-8, 482 pages). 248 12.1 Forschungsschwerpunkte The group is organized into three teams which focus on the following research areas: Quality-of-Service (Coordination: Armin Heindl) Methods for the measurement, simulation, and analysis are developed and investigated in experimental network scenarios. A GPS-based measurement infrastructure has been developed for highly precise and high-volume measurements. Simulation models are built either with commercial UML tools or with WinPEPSY, a tool allowing for queuing network models. Special emphasis is given on innovative analysis methods for models with a large state space and with general distributions (non-Markovian models), analysis of large queuing networks by traffic-based decomposition and matrix-analytic techniques, as well as deterministic analysis based on network calculus (for providing QoS guarantees). In late 2006 we started two cooperations with AUDI AG Ingolstadt on the topics • Software-in-the-Loop Simulation and Testing of Highly Dependable Distributed Automotive Applications • Transmission of Safety-Relevant Sensor Data in Intra-Car Communication Systems. In the latter project a PhD position in the context of INI.FAU is funded by AUDI AG. Research issues include: • GPS-based measurement infrastructure for a Web cluster • online and offline clock synchronization • UML simulation models • analysis of queuing networks by traffic-based decomposition and matrix-analytic methods • correlated input modeling by Markovian arrival processes • WinPEPSY: a modeling tool based on queuing networks • analysis of large non-Markovian models by iterative rate adjustments • network calculus and optimization • performance impact factors in WLANs 249 • QoS of mechanisms for distributing traffic control messages Design and Test of Communication Systems (Coordination: Winfried Dulz) Methods are investigated for the design and test of communication systems based on formal description techniques (SDL and MSC) and object-oriented modeling and implementation languages (UML and Java). For the software engineering of interoperative systems (reconfigurable mobile components) a modular approach driven by UML patterns is applied. For testing, a new approach has been developed. Starting from scenario descriptions (MSC or UML sequence diagrams), a Markov chain is automatically derived from which it is possible to derive test cases (using ETSI TTCN-3). Thus, the models used for system specification can also be used for performing the tests and can thus give empirical evidence whether an implementation satisfies its implementation. The scenario approach allows for testing most likely usages of the system and can also provide a measure of test coverage. Research issues include: • statistical testing based on scenario descriptions • enhancement of statistical scenario-based testing for QoS testing using UML • tool development for statistical sceanario-based testing • modular software development for reconfigurable mobile systems driven by UML patterns • software development in a mobile commerce scenario Autonomic Networking (Coordination: Falko Dressler) Self-organization methods and corresponding programming, control, and validation techniques are investigated in the autonomic networking group. Particularly, bioinspired networking methods are evaluated and adapted. All these methods are used to build system architectures consisting of wireless sensor networks (WSN) and sensor/actuator networks (SANET), e.g. teams of mobile robots. In our lab, we build a robot-assisted sensor network consisting of several larger mobile robots connected to sensor nodes. The network will be used for exploration, surveillance as well as human communication assistance. Simultaneously, we are developing comprehensive simulation models including MAC, ad hoc routing, end-to-end communication, and task allocation. We extend these models using robot simulators to match physical parameters of the environment to get more precise mobility models of the robot systems. Recently, we integrated traffic micro simulation to analyze the behavior of ad hoc routing strategies in 250 vehicular ad hoc networks (VANET) as well. Additionally, we investigate network security issues in the Internet. The primary focus is on network monitoring, attack detection, and event correlation. As massively distributed security evironments are envisioned, we develop and analyze self-organization mechanisms of security systems. Currently, we are working on the following externally funded research projects: ”Security and Quality of Service and Aspects in ZigBee-based Wireless Communication” (funded by Siemens AG A&D), ”p2p4wsn – Efficient Data Management in Mobile Sensor Networks using Peer-to-Peer Technologies” (funded by DAAD), and ”monk-it – Efficient distributed monitoring, attack detection, and event correlation” (funded by BSI). Research issues include: • Sensor and Actor Networks • Bio-inspired Networking • Wireless Networking • Network Monitoring and Attack Detection Geförderte Forschungsvorhaben • Mo.S.I.S. (Modular Software Engineering for Interoperative Systems), gefördert durch Fraunhofer Institute for Integrated Circuits IIS • Q.E.D. (QoS Enhanced Development Using UML2.0 and TTCN-3), gefördert durch Fraunhofer Institute for Integrated Circuits IIS • Bio-inspired task allocation algorithms for SN-MRS systems, gefördert durch DAAD • Security and Quality of Service and Aspects in ZigBee-based Wireless Communication, gefördert durch Siemens A&D • p2p4wsn – Efficient Data Management in Mobile Sensor Networks using Peer-toPeer Technologies, gefördert durch DAAD • Conceptual design of a UML-based tool for the simulation and test of wireless sensor networks, gefördert durch Fraunhofer Institute for Integrated Circuits IIS • CoCar – Cooperative Cars, gefördert durch Vodafone Group R&D Germany (Munich) • monk-it, gefördert durch BSI 251 • Transmission of Safety-Relevant Sensor Data in Intra-Car Communication Systems, gefördert durch AUDI AG (Ingolstadt) • p2p4wsn, gefördert durch DAAD Gäste • Prof. Ian Akyildiz (Georgia Institute of Technology, USA) • Prof. Dr.-Ing. Kenji Leibnitz (Osaka University) • Prof. Jan Tretmans (University of Nijmegen, Niederlande) 12.2 Forschungsrelevante apparative Ausstattung The group has a PC cluster which can operate as a distributed Web server for both static or dynamic content or as an e-commerce system (a bookshop as specified by the TPC-W benchmark) and which has a measurement infrastructure for recording oneway delays, resource usages, and other relevant events. The infrastructure consists of a roof-mounted GPS antenna, several GPS receiver cards, additional hardware to distribute the PPS pulse, and modifications in the operating system kernels. It is possible to conduct measurements with high data volume and microsecond precision. A WLAN has the same measurement infrastructure. A robot assisted sensor network is available and consists of three Robertino robots and a number of sensor motes. The group also develops a soccer robot configuration close to the RoboCup F180 rules which includes an adapted measurement infrastructure. 12.3 Kooperationsbeziehungen • AUDI AG, Ingolstadt • BMW, Science and Traffic Policy, München • Computer Systems and Networks Group (University of Turin, Prof. G. Balbo, Dr. M. Gribaudo) • Computer Networks and Internet Group (University of Tübingen, Prof. G. Carle) • Dept. of Cellular and Molecular Physiology (University of Erlangen, Dr. B. Krüger) 252 • Fraunhofer Institut Integrierte Schaltungen (several departments, Erlangen Tennenlohe) • Inchron GmbH • method park Software AG • Prozeßdatenverarbeitung und Robotik (TU Berlin, Prof. G. Hommel) • Performability Engineering Research Group (University of Illinois, Prof. W. Sanders) • Siemens A & D • Siemens Medical Solutions • Vodafone Group R&D Germany, München 12.4 Wissenschaftliche Tagungen In March 2006, we organized the ”13th GI/ITG Conference on Measurement, Modeling, and Evaluation of Computer and Communication Systems” with the associated workshops • ITG FA 6.2 Workshop on Model-Based Testing • GI/ITG Workshop on Non-Functional Properties of Embedded Systems Further we organized the following conferences and workshops: • IEEE WSNS’06 (2nd IEEE International Workshop on Wireless and Sensor Networks Security) held in conjunction with IEEE MASS 2006 (3rd IEEE International Conference on Mobile Ad-hoc and Sensor Systems) • IEEE/ACM BIONETICS 2006 (1st IEEE/ACM International Conference on BioInspired Models of Network, Information and Computing Systems) • IEEE/ACM COMSWARE 2007 (2nd IEEE/ACM International Conference on Communiation Systems Software and Middleware) • IEEE/ACM SensorWare 2007 (2nd IEEE/ACM International Workshop on Software for Sensor Networks) held in conjunction with IEEE/ACM COMSWARE 2007 (2nd IEEE/ACM International Conference on Communiation Systems Software and Middleware) 253 • IEEE WSNS 2007 (3rd IEEE International Workshop on Wireless and Sensor Networks Security) held in conjunction with IEEE MASS 2007 (4th IEEE International Conference on Mobile Ad-hoc and Sensor Systems) • IEEE/ACM BIONETICS 2007 (2nd IEEE/ACM International Conference on Bio-Inspired Models of Network, Information and Computing Systems) 12.5 Forschungsprojekte 12.5.1 Analysis Methods for Non-Markovian Models Projektleitung: Prof. Dr.-Ing. Reinhard German Beteiligte: Dipl.-Inf. Peter Bazan Stichwörter: Non-Markovian models; stochastic petri nets; performance analysis; approximation algorithms Beginn: 1.11.2001 queueing networks; Traditional approaches to solve non-Markovian models use phase-type expansions, apply the method of supplementary variables or construct an embedded Markov chain. All three approaches have also been investigated in the context of queuing networks and stochastic Petri nets. The phase-type expansion approach suffers from the enlargement of the state space, whereas the method of supplementary variables and the embedded Markov chain construction require basically that non-exponentially timed activities are not concurrent. If they are concurrent this will result in multidimensional differential equations that are hard to solve. To avoid these problems more efficient techniques for the performance evaluation of computer networks like web servers or networks of embedded systems have to be developed. In such systems activity durations with large variances (file transfers) as well as deterministic durations (security aspects) arise. We have created two new approaches to approximately evaluate the performance models of these systems; the first one is based on the method of supplementary variables and the second one deals with phase-type expansions. We are currently enhancing these approaches and it is planned to combine them for the solution of large non-Markovian models. In cooperation with department 4 (Distributed Systems and Operating Systems) the tool WinPEPSY for performance evaluation and prediction of queueing systems was developed. It contains well known analysis methods for open and closed product form and 254 non-product form networks (mean value analysis, Jackson-method, decomposition methods, simulation) and the new state-based analysis methods are integrated. In a cooperation with the Telecommunications Laboratory, Communications, Electronics and Information Engineering Division of the National Technical University of Athens simulation models for embedded network processors have been developed. The goal is to enhance the above mentioned methods, so that even performance measures for these large models can be derived. Publikationen – Bazan, Peter ; Bolch, Gunter ; German, Reinhard: WinPEPSY-QNS-Performance Evaluation and Prediction System for Queueing Networks . In: German, Reinhard ; Heindl, Armin (Hrsg.) : Proc.13th GI/ITG Conference (Measuring, Modelling and Evaluation of Computer and Communication Systems, Nürnberg, Germany March 27-29, 2006). Berlin : VDE Verlag GmbH, 2006, S. 465-468. – ISBN 38007-2945-8 – Bazan, Peter ; German, Reinhard: Approximate Analysis of Stochastic Models by Self-Correcting Aggregation . In: Ciardo, G. ; D’Argenio, P. ; Miner, A. ; Rubino, G. (Hrsg.) : Proc. 2nd. Int. Conf. on the Quantitative Evaluation of Systems 2005 (QEST 2005 Torino, Italy 19-22 September). 2005, S. 134-143. – ISBN 0-76952427-3 – Bazan, Peter ; Bolch, Gunter ; German, Reinhard: WinPEPSY-QNS Performance Evaluation and Prediction System for Queueing Networks . In: Begain, Khalid ; de Meer, Hermann ; Bolch, Gunter (Hrsg.) : Proc. 11th Int. Conf. on Analytical and Stochastical Modelling Techniques and Applications (ASMTA 2004 Magdeburg 13. -16.06.04). 2004, S. 110 -115. – Bazan, Peter ; German, Reinhard: An iterative approximate analysis method for non-Markovian models based on supplementary variables . In: Buchholz, P. ; Lehnert, R. ; Pioro, M. (Hrsg.) : Proc. 12th GI/ITG Conf. on Measuring, Modelling and Evaluation of Computer and Communication Systems (MMB & PGTS 04 Dresden September 2004). 2004, S. 255-264. – German, Reinhard: Iterative Analysis of Markov Regenerative Models . In: Journal of Performance Evaluation (2001), Nr. 44, S. 51-72 – Freiheit, J. ; Zimmermann, A. ; German, Reinhard ; Hommel, G.: Petri Net Modeling and Performability Evaluation with TimeNET 3.0 . In: Haverkort, B. ; 255 Bohnenkamp, H. ; Smith, C. (Hrsg.) : Proc. Int. Conf. on Modelling Techniques and Tools for Computer Performance Evaluation. (TOOLS 2000 Schaumburg, Illinois, USA März 2000). Heidelberg : Springer, 2000, S. 188-202. (LNCS Bd. 1786) – German, Reinhard: Cascaded Deterministic and Stochastic Petri Nets . In: Plateau, B. ; Stewart, W.J. ; Silva, M. (Hrsg.) : Proc. 3. Int. Meeting on the Numerical Solution of Markov Chains (NSMC 1999 Zaragoza September 1999). 1999, S. 111-130. 12.5.2 BioNeting – Bio-inspired Networking Projektleitung: Dr.-Ing. Falko Dressler Beteiligte: Dipl.-Inf. Gerhard Fuchs M.Sc. Thomas Halva Labella Stichwörter: bio-inspired networking; self-organization; organic computing; autonomic networking Beginn: 1.5.2004 Förderer: Deutscher Akademischer Austauschdienst Mitwirkende Institutionen: Dept. of Cellular and Molecular Physiology, University of Erlangen (Dr. Bettina Krüger) Kontakt: Dr.-Ing. Falko Dressler Tel.: 09131 85 27914 Fax: 09131 85 27409 E-Mail: [email protected] Besides to classical research area of bioinformatics, the turn to nature for solutions to technological questions has brought us many unforeseen great concepts. This encouraging course seems to hold on for many aspects in technology. Many efforts were made in the area of computer technology employing mechanisms known from biological systems. The most known examples are evolutionary algorithms and the artificial immune system. One application is in network security, e.g. for the search for viruses and worms, where the immune system was used as an inspiration. In contrast, the focus of our group lays on trying to map the cellular and molecular 256 biology to networking architectures. Recently, it was shown that the known approaches to study effects in computer networking, especially methods to analyze the behavior of large scale networks suffer from many presumptions. We try to study this behavior by analyzing the internal functioning of network components as well as there interactions in comparison with cellular systems and the associated intra and extra cellular signaling pathways. The main focus of this work is to show the similarities of computer networks and cellular systems. Based on the knowledge about cellular metabolism, new concepts for the behavior patterns of routers, monitor systems, and firewalls can be deduced and the efficiency of individual sub-systems can be increased. Focusing on examples of hot topics in the computer society, i.e. network security, potential solutions motivated by cellular behavior are currently studied and, hopefully, will soon bring new results in these areas. Independently from these examinations, we try to show the power of our novel approach by introducing the basic mechanisms and interactions as well as a self-evident application. Doing this, we must keep in mind that the deeper the parallels between biology and technology, the more important it is to map the corresponding elements correctly. Publikationen – Dressler, Falko ; Carreras, Iakopo: Advances in Biologically Inspired Information Systems – Models, Methods, and Tools . Bd. 69 Berlin, Heidelberg, New York : Springer Verlag, 2007 – Dressler, Falko: Bio-inspired Network-centric Operation and Control for Sensor/Actuator Networks . In: Transactions on Computational Systems Biology (TCSB) VIII (2007), Nr. LNCS 4780, S. 1-13 – Dressler, Falko: Self-Organization in Sensor and Actor Networks . Chichester : John Wiley & Sons, 2007 – Dressler, Falko ; German, Reinhard ; Krüger, Bettina: Adaptive Data Dissemination in Sensor Networks using WPDD . In: IEEE (Hrsg.) : Proc. of Frontiers in the Convergence of Bioscience and Information Technologies ((FBIT 2007) Jeju, Korea October 2007). 2007, S. -. – Dressler, Falko ; Dietrich, Isabel ; German, Reinhard ; Krüger, Bettina: Efficient Operation in Sensor and Actor Networks Inspired by Cellular Signaling Cascades . In: ACM (Hrsg.) : Proc. of 1st ICST/ACM International Conference on Autonomic Computing and Communication Systems ((Autonomics 2007) Rome, Italy October 2007). 2007, S. -. 257 – Labella, Thomas Halva ; Dressler, Falko: A Bio-Inspired Architecture for Division of Labour in SANETs . In: n.b. (Hrsg.) : Proc. of 1st IEEE/ACM International Conference on Bio-Inspired Models of Network, Information and Computing Systems ((IEEE/ACM BIONETICS 2006) Cavalese, Italy December 2006). 2006, S. -. – Dressler, Falko ; Krüger, Bettina ; Fuchs, Gerhard ; German, Reinhard: SelfOrganization in Sensor Networks using Bio-Inspired Mechanisms . In: n.b. (Hrsg.) : Proc. of 18th ACM/GI/ITG Intern. Conf. on Architecture of Computing Systems – System Aspects in Organic and Pervasive Computing ((ARCS’05) Innsbruck, Austria March 2005). 2005, S. -. 12.5.3 CoCar – Cooperative Cars Projektleitung: Prof. Dr.-Ing. Reinhard German Dr.-Ing. Winfried Dulz Beteiligte: Dipl.-Inf. Christoph Sommer Stichwörter: C2C (Car to Car); C2I (Car to Infrastructure); 3G+; UMTS; IP-based communication protocols for teldots ; simulation; cross-layer design and optimization Laufzeit: 1.11.2006–30.4.2009 Förderer: Vodafone Group R&D Germany (München) Mitwirkende Institutionen: Lehrstuhl für Mobilkommunikation (Prof. Dr. Koch) Kontakt: Prof. Dr.-Ing. Reinhard German Tel.: +49 9131 85 27916 Fax: +49 9131 85 27409 E-Mail: [email protected] Cooperatively acting vehicles represent a substantial innovation for future traffic management solutions and for the next generation of driver assistance systems. Including efficient communication mechanisms into future cars can be seen as a central task. This comprises both the direct (or indirect) vehicle to vehicle communication (C2C) as well as the vehicle to infrastructure communication (C2I) for sending and analyzing real-time traffic conditions in order to generate and broadcast important traffic information. 258 Main questions that CoCar will tackle by means of simulation studies and cross-layer optimization techniques are (among others): • Which effects are to be expected for the network signalling and which protocols have to be provided to support future telematic applications? • Which latency and load behaviour patterns are induced by CoCar application scenarios? • Which additions/changes at existing system concepts are to be accomplished and which requirements arise for future, network-supported communication services? • How can traffic status information be acquired automatically in real-time and provided for CoCar users inside the cars by using UMTS services? The research work in CoCar is driven by an interdisciplinary, internationally acting consortium, consisting of prominent telecommunication network operators, network equipment suppliers as well as car and truck manufacturers. Industrial research is thereby supplemented by university research partners that preparatory work in the form of distinctive subcontracts. The objectives and ambitions of CoCar are put high and aim on making Germany the technology leader within the range of C2C and C2I applications based on cellular mobile UMTS communications. The final goal is to develop an open European standard to export vehicle communication solutions into future European cars. 12.5.4 Conceptual design of a UML-based tool for the simulation and test of wireless sensor networks Projektleitung: Prof. Dr.-Ing. Reinhard German Beteiligte: Dipl.-Inf. Isabel Dietrich Beyer, Matthias Stichwörter: UML; modeling; simulation; statistical test; wireless sensor networks Beginn: 1.6.2006 Förderer: Fraunhofer Institute for Integrated Circuits IIS Kontakt: Dipl.-Inf. Isabel Dietrich 259 Tel.: +49 9131 85 27697 Fax: +49 9131 85 27409 E-Mail: [email protected] The main research objective is to enable the automated and statistically sound simulation and test of uml models. The well-known modeling standard UML 2.1 is used to specify a system, such as a communication network. The model is then annotated with quantitative elements and performance metrics using the standardized UML profiles for ”Modeling QoS and Fault Tolerance Characteristics and Mechanisms” (QoS) and ”Modeling and Analysis of RealTime and Embedded systems” (MARTE). In this way, a fully standard compliant model of a system can be developed. In cooperation with Fraunhofer IIS, the goal of this project is to design a tool that provides a mechanism for the automated translation of standard compliant UML models into discrete event simulations, as well as mechanisms for statistical testing of such models. The simulations will provide the means to estimate the system performance using classic quality of service criteria, discover bottlenecks and optimize system parameters. The statistical tests will allow to make statements about the reliability and correctness of the model. For the simulation, the most important modeling elements will be state machines and composite structures. With these elements, the behavior of a system as well as its composition can be represented appropriately. The models of user interactions with the system needed for statistical testing will be represented with sequence diagrams. To simplify the exchange with existing tools and models, the tool is to be based on the open source platform Eclipse and the implementation of the UML metamodel available within the Eclipse modeling project. Publikationen – Dietrich, Isabel ; Sommer, Christoph ; Dressler, Falko ; German, Reinhard: Automated Simulation of Communication Protocols Modeled in UML 2 with Syntony . In: n.b. (Hrsg.) : Proc. of GI/ITG Workshop Leistungs-, Zuverlässigkeits- und Verlässlichkeitsbewertung von Kommunikationsnetzen und verteilten Systemen ((MMBnet 2007) Hamburg, Germany September 2007). 2007, S. 104-115. – Dietrich, Isabel ; Schmitt, Volker ; Dressler, Falko ; German, Reinhard: UMLbased Simulation of AODV with SYNTONY . In: n.b. (Hrsg.) : Proc. of the 4th Intern. Conf. on the Quantitative Evaluation of SysTems ((QEST, Graduate Symposium) Edinburgh, Scotland September 2007). Los Alamitos, CA : IEEE Computer Society, 2007, S. -. – ISBN 0-7695-2883-X 260 – Dietrich, Isabel ; Schmitt, Volker ; Dressler, Falko ; German, Reinhard: SYNTONY: Network Protocol Simulation based on Standard-conform UML 2 Models . In: ACM (Hrsg.) : Proc. of 1st ACM International Workshop on Network Simulation Tools ((NSTools 2007) Nantes, France October 2007). 2007, S. -. 12.5.5 HISTORY – HIgh Speed neTwork mOnitoRing and analYsis Projektleitung: Dr.-Ing. Falko Dressler Beteiligte: Dipl. Inf. Ali Fessi (Tübingen) Dipl. Inf. Andreas Klenk (Tübingen) Dipl. Inf. Gerhard Münz (Tübingen) Dipl.-Inf. Isabel Dietrich Dipl.-Inf. Tobias Limmer Dipl.-Inf. Christoph Sommer Stichwörter: network monitoring; accounting; performance measurements; intrusion detection; anonymization; configuration signaling Beginn: 1.9.2003 Förderer: EU (European Commission) BMBF AUDI AG BSI Mitwirkende Institutionen: Computer Networks and Internet, University of Tübingen (Prof. Dr.-Ing. Georg Carle) Kontakt: Dr.-Ing. Falko Dressler Tel.: 09131 85 27914 Fax: 09131 85 27409 E-Mail: [email protected] The aim of this project is to build an architecture, methods, and tools for distributed network analysis. The HISTORY analysis environment makes it possible to collect information about network traffic and its behavior in distributed high-speed network environments. The employment of standardized protocols (IETF IPFIX, PSAMP, and NSIS) results in an extensible architecture. A main objective is to develop methodologies for handling high amounts of statistics and packet data even with cheap low-end components. Visualization techniques and anonymization methods round off 261 the big picture of a visionary environment for all network monitoring and analyzing challenges. Developed tools will be available under an open source license. Research Goals and Objectives • Cooperative autonomous entities with distributed functioning • Emergent behavior through adaptive self-organization • Operation in high-speed networks while utilizing standard PC components • Wide application range from accounting and charging up to traffic engineering and intrusion detection • Anonymization techniques for wide applicability Publikationen – Dressler, Falko ; Jaegers, Wolfgang ; German, Reinhard: Flow-based Worm Detection using Correlated Honeypot Logs . In: n.b. (Hrsg.) : Proc. of 15. GI/ITG Fachtagung Kommunikation in Verteilten Systemen ((KiVS 2007) Bern, Switzerland February, 2007). 2007, S. 181-186. – Kaiser, Jochen ; Vitzthum, Alexander ; Holleczek, Peter ; Dressler, Falko: Automated resolving of security incidents as a key mechanism to fight massive infections of malicious software . In: n.b. (Hrsg.) : Proc. of GI SIDAR International Conference on IT-Incident Management & IT-Forensics ((IMF 2006) Stuttgart, Germany October 2006). Bd. LNI P-97. Berlin : Springer Verlag, 2006, S. 92103. – Münz, Gerhard ; Antony, Albert ; Dressler, Falko ; Carle, Georg: Using Netconf for Configuring Monitoring Probes . In: n.b. (Hrsg.) : Proc. of 10th IFIP/IEEE Network Operations & Management Symposium ((NOMS 2006) Vancouver, Canada April 2006). 2006, S. -. – Dressler, Falko: Policy-based traffic generation for IP-based networks . In: n.b. (Hrsg.) : Proc. of 25th IEEE Conference on Computer Communications ((IEEE INFOCOM 2006) Barcelona, Spain April 2006). 2006, S. -. – Lampert, Ronny T. ; Sommer, Christoph ; Münz, Gerhard ; Dressler, Falko: Vermont – A Versatile Monitoring Toolkit Using IPFIX/PSAMP . In: n.b. (Hrsg.) : Proc. of IEEE/IST Workshop on Monitoring, Attack Detection and Mitigation ((MonAM 2006) Tübingen, Germany September 2006). 2006, S. 62-65. 262 – Dressler, Falko ; Münz, Gerhard: Flexible Flow Aggregation for Adaptive Network Monitoring . In: n.b. (Hrsg.) : Proc. of 31st IEEE Conference on Local Computer Networks : 1st IEEE LCN Workshop on Network Measurements ((LCN), (WNM 2006) Tampa, Florida, USA November 2006). 2006, S. 702-709. – Haibl, Fabian ; Dressler, Falko: Anonymization of Measurement and Monitoring Data: Requirements and Solutions . In: Praxis der Informationsverarbeitung und Kommunikation (PIK) 29 (4) (2006), S. 208-213 – Dressler, Falko ; Carle, Georg: HISTORY – High Speed Network Monitoring and Analysis . In: n.b. (Hrsg.) : Proc. of 24th IEEE Conf. on Computer Communications ((IEEE INFOCOM 2005) Miami, FL, USA March 2005). 2005, S. -. – Dressler, Falko: Adaptive network monitoring for self-organizing network security mechanisms . In: n.b. (Hrsg.) : Proc. of IFIP International Conference on Telecommunication Systems, Modeling and Analysis 2005 ((ICTSM2005) Dallas, TX, USA November 2005). 2005, S. 67-75. – Dressler, Falko ; Gerhard Münz ; Georg Carle: CATS – Cooperating Autonomous Detection Systems . In: n.b. (Hrsg.) : 1st IFIP TC6 WG6.6 International Workshop on Autonomic Communication ((WAC 2004) Berlin, Germany Oktober). 2004, S. -. 12.5.6 Integrated Modeling Platforms for Computer Infrastructures Projektleitung: Prof. Dr.-Ing. Reinhard German Beteiligte: Dipl.-Inf. (FH) Stefan Schreieck Dipl.-Inf. Kai-Steffen Jens Hielscher Beginn: 1.1.2005 Kontakt: Prof. Dr.-Ing. Reinhard German Tel.: +49 9131 85 27916 Fax: +49 9131 85 27409 E-Mail: [email protected] Performance models may provide reliable answers concerning the quality of service of computer systems. Design decisions in the model building process represent a crucial step, which also affect the applicability of available evaluation algorithms. Analytical techniques are usually much faster than simulations, but there exist many 263 system variations and growing models become complicated soon. But what must a model look like to get trustworthy answers, what are the key parts of a certain computer system which must be modeled and where are the limits of particular models? This is the starting point for our project. We want to provide a framework which shows a practicable way of how to start with modeling a certain infrastructure, which might exhibit some performance problems. It is a main goal to investigate the influence of the different components in the system on the accuracy of the modeling results. Besides, we want to compare different modeling approaches in view of their outcomes. In the end, this will demonstrate the limits of simple analytical or simulative models. The objects being modeled are part of the infrastructure of our cooperation partner, the University of Applied Sciences in Kempten: on the one hand a web-server and on the other hand a distributed web-service, i.e., an online portal which consists of a web-server, an application-server and a database-server. Because these systems are real productive systems, we are convinced to meet the requirements of many other teams using comparable infrastructures in a commercial way. We get real data from these systems which deliver the information to parameterize and validate the models. In addition, we evaluate, respectively develop, some tools for gathering the required numbers about the computers. At the moment we investigate a straightforward solution for measuring delays on the network with only one PC without further time synchronisation. Publikationen – Hielscher, Kai-Steffen Jens ; Schreieck, Stefan ; German, Reinhard: Analyse und Modellierung einer produktiven verteilten Webanwendung . In: Wolfinger, Bernd ; Heidtmann, Klaus (Hrsg.) : Leistungs-, Zuverlässigkeits- und Verlässlichkeitsbewertung von Kommunikationsnetzen und verteilten Systemen (3. GI/ITG-Workshop MMBnet 2005 Hamburg 8.-9. September). Bd. 263. Hamburg : Fachbereich Informatik, 2005, S. 99-110. 12.5.7 Mo.S.I.S. (Modular Software Engineering for Interoperative Systems) Projektleitung: Dr.-Ing. Winfried Dulz Beteiligte: Dipl.-Ing. Sébastien Truchat Stichwörter: interoperability; reconfiguration; software-engineering; computing; mobile services; design pattern Laufzeit: 1.10.2001–31.12.2006 Förderer: 264 mobile Fraunhofer Institute for Integrated Circuits IIS An important goal of the CCIOS cooperation (Competence Centre for Interoperative Systems, Fraunhofer institute IIS-A) is to elaborate a universal hardware-independent developing strategy for adaptive/reconfigurable interoperative systems and especially for mobile devices. In order to provide a faster and more efficient engineering process, two major fields of interest arise: Optimised software engineering through the use and improvement of modern and mostly platform independent engineering methods and tools Conception and realisation of new applications and service-provider scenarios, in particular within the pilot project HORN (Home and Office Replenishment Nuremberg), which is an initiative of the Fraunhofer Institute ATL, Nuremberg We therefore concentrate our research work on a development strategy that covers all phases from the design phase up to the implementation, even for lightweight devices. Our new technique will allow rapid software prototyping to obtain an open reconfigurable mobile device. In the same way, the infrastructure installed for mobile services will be dynamically reusable for new services. Our concept aims on platform independence by using dedicated design patterns. A global service or application has to be separated into collaborating and exchangeable software modules to enable modular reconfiguration over wireless networks. Platform interoperability is reached via a profile based generic reconfiguration mechanism, permitting the (re-)use of existing local infrastructures to reconfigure various mobile terminals. Software interoperability can be reached by the use of light-weight data oriented interfaces rather than through a middleware approach. Publikationen – Fuchs, Gerhard ; Truchat, Sébastien ; Dressler, Falko: Distributed Software Management in Sensor Networks using Profiling Techniques . In: n.b. (Hrsg.) : Proc. of 1st IEEE/ACM International Conference on Communication System Software and Middleware : 1st International Workshop on Software for Sensor Networks ((IEEE COMSWARE 2006), (SensorWare 2006) New Dehli, India January 2006). 2006, S. -. – Truchat, Sébastien ; Pflaum, Alexander: Reconfigurable consumer direct logistics systems . In: Müller, Paul ; Gotzhein, Reinhard ; Schmitt, Jens B. (Hrsg.) : Kommunikation in Verteilten Systemen ((KiVS) Kaiserslautern 28.2.-3.3.2005). Bonn : Gesellschaft für Informatik, 2005, S. 104-111. (GI-Edition Lecture Notes in Informatics Bd. P-61) – ISBN 3-88579-390-3 – Fuchs, Gerhard ; Truchat, Sébastien ; Dressler, Falko: Profilbasierte Rekonfiguration kleiner Endgeräte – Roboter unterstützte Sensornetzwerke . Hagen : Fernuni- 265 versität in Hagen Fachbereich Informatik. 2005 (324-5/2005). – Interner Bericht (2. GI/ITG KuVS Fachgespräch Ortsbezogene Anwendungen und Dienste) – Truchat, Sébastien: Systembeschreibung zu Rekonfigurierbaren mobilen autonomen Diensten – Rekonfigurierbare Navigationssoftware . Erlangen : FriedrichAlexander-Universität Erlangen-Nürnberg. 2005 (01/05). – Interner Bericht – Truchat, Sébastien: Interoperative Systems for Replenishment . In: Ferscha, A. ; Hörtner, H. ; Kotsis, G. (Hrsg.) : Advances in PervasiveComputing (Pervasive 2004 Linz 18.-23.April). Wien : Oesterreichische Computer Gesellschaft, 2004, S. 161-166. ([email protected] Bd. 176) – ISBN 3-85403-176-9 – Truchat, Sébastien ; Hielscher, Kai-Steffen Jens ; Pflaum, Alexander: Towards Cost Efficient Mobile Services . In: Kotsis, G. ; Taniar, D. ; Ibrahim, I. K. (Hrsg.) : 2nd Int. Conf. on Advances in Mobile Multimedia (MOMM 2004 Bali, Indonesia Sept. 22-24, 2004). Bali : Österreichische Computer Gesellschaft, 2004, S. 179188. ([email protected] Bd. 184) – ISBN 3-85403-184-X – Truchat, Sébastien: Erste Systembeschreibung zur Diplomarbeit: Mobile autonome Dienste und ihr Profiling . Erlangen : Friedrich-Alexander-Universität Erlangen-Nürnberg. 2004 (02). – Interner Bericht – Truchat, Sébastien: Interoperative Systeme – Eine Studie über vorhandene Plattformen . Erlangen : Friedrich-Alexander-Universität Erlangen-Nürnberg. 2002 (04). – Interner Bericht 12.5.8 monk-it – Efficient distributed monitoring, attack detection, and event correlation Projektleitung: Dr.-Ing. Falko Dressler Prof. Dr.-Ing. Reinhard German Dr. rer. nat. Peter Holleczek Beteiligte: Dipl.-Inf. Tobias Limmer Dipl.-Inf. Jochen Kaiser Laufzeit: 1.1.2007–31.12.2007 Förderer: BSI (Bundesamt für Sicherheit in der Informationstechnik) Kontakt: Dr.-Ing. Falko Dressler Tel.: 09131 85 27914 266 Fax: 09131 85 27409 E-Mail: [email protected] The number, rate, and quality of attacks is steadily increasing with the enormous growth of the Internet, its concurrent users and services. The best-known examples are viruses and worms, which are reaching alarming scales. The Federal Office for Information Security (BSI) identified these threats and initiated the development of a national early warning system for Germany. This system should be able to detect and analyze attacks and to initiate adequate response measures. In general, such an early warning system has high demands on its timeliness and flexibility while it must be able to handle increasing amounts of data. The monk-it project aims to develop, to implement, and to integrate two main building blocks for the described early warning system: an efficient network monitoring system working in a distributed environment for subsequent attack detection and event correlation techniques at higher layers. Passive network monitoring is a challenging task in current multi-gigabit networks. In the scope of this project, novel algorithms are investigated for the load-dependent re-configuration of distributed monitoring stations. Additionally, selected attack detection mechanisms, so named pre-processors, are moved directly into the monitoring task in order to reduce the amount of monitoring data to be analyzed at a central detection system. The final goal is to develop an ”intelligent” self-organizing monitoring environment, which supports and simplifies further attack analysis. Independently of the detection of singular attacks, the visibility of such attacks can be limited in the overall network. Event correlation techniques aim at producing more informative conclusions based on non-correlated single measures. This basically helps to detect distributed attacks and to enforce adequate countermeasures. Altogether, both modules represent powerful parts of the envisioned early warning system. In order to simplify the use and the integration, standardized formats and protocols will be consequently used. Thus the project also encourages active participation in the IETF standardization processes. Publikationen – Limmer, Tobias ; Dressler, Falko: Distributed monitoring and analysis for reactive security . In: n.b. (Hrsg.) : Proceedings of SPRING – GI/SIDAR GraduiertenWorkshop über Reaktive Sicherheit ((GI/SIDAR) Dortmund, Germany July 2007). 2007, S. -. – Dressler, Falko ; Jaegers, Wolfgang ; German, Reinhard: Flow-based Worm Detection using Correlated Honeypot Logs . In: n.b. (Hrsg.) : Proc. of 15. GI/ITG 267 Fachtagung Kommunikation in Verteilten Systemen ((KiVS 2007) Bern, Switzerland February, 2007). 2007, S. 181-186. – Dressler, Falko ; German, Reinhard ; Holleczek, Peter: Selbstorganisierende Netzwerksensoren und automatisierte Ereigniskorrelation . In: BSI (Hrsg.) : Proc. of BSI-Workshop IT-Frühwarnsysteme (BSI-Workshop IT-Frühwarnsysteme Bonn, Germany July, 2006). 2006, S. 117-128. – Kaiser, Jochen ; Vitzthum, Alexander ; Holleczek, Peter ; Dressler, Falko: Automated resolving of security incidents as a key mechanism to fight massive infections of malicious software . In: n.b. (Hrsg.) : Proc. of GI SIDAR International Conference on IT-Incident Management & IT-Forensics ((IMF 2006) Stuttgart, Germany October 2006). Bd. LNI P-97. Berlin : Springer Verlag, 2006, S. 92103. – Kaiser, Jochen ; Vitzthum, Alexander ; Holleczek, Peter ; Dressler, Falko: Ein Sicherheitsportal zur Selbstverwaltung und automatischen Bearbeitung von Sicherheitsvorfällen als Schlüsseltechnologie gegen Masseninfektionen . In: n.b. (Hrsg.) : Proc. of SPRING – GI/SIDAR (Graduierten-Workshop über Reaktive Sicherheit Berlin, Germany July 2006). 2006, S. -. – Lampert, Ronny T. ; Sommer, Christoph ; Münz, Gerhard ; Dressler, Falko: Vermont – A Versatile Monitoring Toolkit Using IPFIX/PSAMP . In: n.b. (Hrsg.) : Proc. of IEEE/IST Workshop on Monitoring, Attack Detection and Mitigation ((MonAM 2006) Tübingen, Germany September 2006). 2006, S. 62-65. 12.5.9 Network Calculus and Optimization Projektleitung: Dr.-Ing. Ulrich Klehmet Prof. Dr.-Ing. Reinhard German Stichwörter: deterministic queueing; QoS guarantees; min-plus algebra; optimization Beginn: 1.3.2004 Kontakt: Dr.-Ing. Ulrich Klehmet Tel.: +49 9131 85 27009 Fax: +49 9131 85 27409 E-Mail: [email protected] Network Calculus (NC) is a novel system theory for deterministic queueing systems. To 268 this day it is a big challenge to give assured information about performance-guarantees of telecommunication systems by mathematical methods. This refers to both the design of future systems and analysis on the one hand and evaluation of existing systems on the other hand. For systems constrained to hard real-time conditions special timed quality requests are an inherent aspect of system functionality, e.g. like timeliness of special events. Therefore the classical performance evaluation based on stochastic methods and resulting in (stochastic) expectation values – i.e. mean values – has to be extended by a mathematical tool producing guaranteed boundings for worst case scenarios. The aim for example is to get lower and upper bounds for end-to-end delays of nodes or collections of nodes within a network, for traffic backlog and for output limitations. By means of these performance-analytic bounding values – characterizing worst-case behaviour of traffic flows – it is possible to dimension the corresponding buffer(s), to make sure not to exceed a special burst etc. The NC is a tool for evaluation and estimation of network performance. As well as performance evaluation – the improvement of performance is important. To this end, based on the analytical (NC-)formulas we wish to optimize e.g. a network parameter whereas other parameters are constrained to special limit values. For example, it might be intended to minimize the (maximal) packet delay taking into account limits of arrival and/or service conditions. Thus, we use the Network Calculus for estimation and optimization concerning QoS guarantees in packet switched communication systems. Publikationen – Klehmet, Ulrich: Analysis of sensor networks in real time . In: Thomas, R.A. (Hrsg.) : 6th Int. Conf. Quality, Reliability, and Maintenance ((QRM 2007) Oxford, UK 22-23 March). UK : Coxmoore Publishing Company, 2007, S. 139-143. – Klehmet, Ulrich ; Herpel, Thomas ; Hielscher, Kai-Steffen Jens ; German, Reinhard: Worst Case Analysis for Multiple Priorities in Bitwise Arbitration . In: Wolfinger, Bernd ; Heidtmann, Klaus (Hrsg.) : Leistungs-, Zuverlässigkeitsund Verlässlichkeitsbewertung von Kommunikationsnetzen und verteilten Systemen ((GI/ITG-Workshop MMBnet) Hamburg, Germany 13.-14. September). 2007, S. 27-35. – Klehmet, Ulrich: Introduction to Network Calculus . In: Al-Begain, Khalid ; Bolch, Gunter ; Telek, Miklos (Hrsg.) : Proc. 12th Int. Conf. on Analytical and Stochastic Modelling Techniques and Applications (ASMTA 2005 Riga, Latvia June 1-4, 2005). 2005, S. 89. 269 12.5.10 p2p4wsn – Efficient Data Management in Mobile Sensor Networks using Peer-to-Peer Technologies Projektleitung: Dr.-Ing. Falko Dressler Beteiligte: Abdalkarim Awad, M. Sc. Beginn: 1.4.2006 Förderer: DAAD Kontakt: Dr.-Ing. Falko Dressler Tel.: 09131 85 27914 Fax: 09131 85 27409 E-Mail: [email protected] The primary research goals are the integration of mechanisms and methodologies learnt from peer-to-peer research in the field of sensor networks. It appears obvious that several technologies developed for peer-to-peer systems can be directly applied to the open issues in multi-hop ad hoc sensor networks because the primary structure of both network types is identical. Peer-to-peer networks try to build an overlay structure on existing networks. Using this overlay network, new communication paradigms can be applied and special hardware and software required for interconnecting single nodes in the physical structure are hidden from the applications point of view. The primary goals of peer-to-peer systems were the allocation and distributed utilization of available resources such as processing power and data storage. The figure shows the principles of the intended construction. The physical sensor network is mapped to an overlay network as described in the peer-to-peer research area. At this level, task selection, data location lookup, and data forwarding is optimized. Finally, the single operations such as store and forward are mapped to lower level functionality. In the proposed research plan, the primary focus is on task allocation, data storage, data aggregation, and data transport in multi-hop ad hoc networks. The lessons learnt in peer-to-peer research should be applied to the field of sensor networks and embedded systems. Besides the described similarities between both research areas, the main difference is the problem of low power resources in typical sensor networks. Therefore, the algorithms must be analyzed and possibly reconstructed with the power consumption in mind. The final objective is to develop methodologies for task allocation and data management which are very efficient in terms of speed, adaptability, and power consumption. 270 Publikationen – Dengler, Sebastian ; Awad, Abdalkarim ; Dressler, Falko: Sensor/Actuator Networks in Smart Homes for Supporting Elderly and Handicapped People . In: IEEE (Hrsg.) : Proc. 21st IEEE Int. Conf. on Advanced Information Networking and Applications: First International Workshop on Smart Homes for Tele-Health ((AINA2007 : SmarTel’07 Volume 2) Niagara Falls, Canada May 2007). 2007, S. 863-868. 12.5.11 Q.E.D. (QoS Enhanced Development Using UML2.0 and TTCN-3) Projektleitung: Dr.-Ing. Winfried Dulz Beteiligte: Dipl.-Inf. Matthias Beyer Stichwörter: software testing; automatic test generation; Markov chain usage model; UML2.0; TTCN-3; QoS Beginn: 1.7.2002 Förderer: Fraunhofer Institute for Integrated Circuits IIS Research work in this project deals with the automatic generation of a TTCN-3 compliant test system intended to validate functional and performance requirements of a given system under test. Moreover, our testing methodology that is based on a Markov Chain usage model also provides additional statistical metrics such as the estimated reliability. The complete process relies on the UML 2.0 and the SPT-Profile which is a real-time extension for the UML. Starting with a use case specification and scenario descriptions a protocol state machine is derived as the basic test model. By adding an operational profile the resulting model supports statistical analysis (e.g. the average test case length) as well as the statistical generation of test cases. Given some supplementary information, i.e. the data types and test data, the complete test suite can be generated in TTCN-3, a standardized testing language. After executing the test suite, automatic analysis of the test verdicts will provide major metrics such as the reliability estimation for the system under test. For automation and for convenient application, all steps are implemented in XSLT stylesheets or in Java. The tool chain is based on the standardized interchange format for the UML called XML Metadata Interchange. 271 Publikationen – Beyer, Matthias ; Dulz, Winfried ; Hielscher, Kai-Steffen Jens: Performance Issues in Statistical Testing . In: German, Reinhard ; Heindl, Armin (Hrsg.) : Proc.of 13th GI/ITG Conference on Measurement, Modeling, and Evaluation of Computer and Communication Systems ((MMB 2006) Erlangen, Germany March 27-29, 2006). Berlin : VDE Verlag GmbH, 2006, S. 191-207. – ISBN 3-8007-2945-8 – Beyer, Matthias ; Dulz, Winfried: Scenario-based Statistical Testing of Quality of Service Requirements . In: Leue, Stefan ; Systä, Tarja Johanna (Hrsg.) : Scenarios: Models, Transformations and Tools (International Workshop Scenarios: Models, Transformations and Tools Schloss Dagstuhl 5.-10.9.2003). Heidelberg : Springer, 2005, S. 152-173. Bd. LNCS, Nr. 3466 – ISBN 3-540-26189-3 12.5.12 Quality of Service of Networked Embedded Systems Projektleitung: Prof. Dr.-Ing. Reinhard German Beteiligte: Dipl.-Inf. Kemal Köker Stichwörter: quality of service; distributed embedded systems; real-time operating systems; embedded linux Beginn: 1.6.2002 Kontakt: Prof. Dr.-Ing. Reinhard German Tel.: +49 9131 85 27916 Fax: +49 9131 85 27409 E-Mail: [email protected] Research activities in the area of ”networked embedded systems in dynamic environments” aim at an investigation of the performance and real-time characteristics of such distributed systems. For this purpose, several system components with their internal behaviour (like operating system, application program, runtime system) and the communication units are examined more closely. The test scenario was specified as a variant of the RoboCup Small Size League (F180). The system consists of individual soccer robots, a global vision system for the playfield, as well as a computer system which acts as a communication base using WLAN and Ethernet. For the investigation, an adequate measurement infrastructure is necessary, which can monitor response time and utilization of the system. It is required to adjust the already existing measurement infrastructure of a web cluster at the group for embedded systems. Simulation models 272 (evaluated by means of tools like AnyLogic, OPNET, ns-2) and analytic queueing models (using e.g., WinPEPSY) can then be built based on the measurements. Based on this measurement environment and the developed models, it is possible to validate and calibrate close-to-reality models, which allow to assess and interpret such systems. This work will answer the question ”which components must the model contain to describe the system adequately”. The work of the previous years can be summarized in four parts. In the first part, the self-built-robot has been redesigned including a microcontroller-circuit, which communicates via the RS-232-Interface of the PC/104-board. The microcontroller enables the robots of each team to act very precisely in the dynamic environment of a soccer game, for instance. In the second part, the operating system of the PC/104-board has been patched with RTAI to analyze the performance of the real-time-application-interface for Linux. To evaluate the system response in real time, signal edges have been generated and the latency was monitored using a very highly-precise time-measuring instrument. Monitoring systems delivered a variation of the system response time when calling a singleshot-task and periodic-tasks and if the system load increases i.e. by executing classic tasks like gcc and pingflood. In the third part, an existing event-tracing-tool for the Linux-Kernel was modified for tracing real-time events by using the RTAI-Patch for Linux. Now it is possible to analyze the latency of the response time on the system software level by tracking the real-time system calls. In the fourth part, the software of the existing soccer-playing robot has been adapted, so this player now can act more autonomously by using its on-board-sensors (proximitysensors and cmos camera). The robot is not provided with any kind of information from outside the system. Publikationen – Köker, Kemal ; Membarth, R. ; German, Reinhard: Performance Analyses of Embedded Real-time Operating Systems using High-precision Counters . In: n.b. (Hrsg.) : Proc. 3rd Int. Conf. on Autonomous Robots and Agents (ICARA Palmerston North, New Zealand December 2006). 2006, S. 485-490. 12.5.13 ROSES – RObot assisted SEnsor networkS Projektleitung: Dr.-Ing. Falko Dressler 273 Prof. Dr.-Ing. Reinhard German Beteiligte: Dipl.-Inf. Gerhard Fuchs Dipl.-Inf. Isabel Dietrich M.Sc. Thomas Halva Labella Abdalkarim Awad, M. Sc. Feng Chen, M. Sc. Stichwörter: sensor networks; autonomous systems; self-organization; energy-aware operation; task allocation; localization; mobile ad hoc networks Beginn: 1.10.2004 Förderer: Deutscher Akademischer Austauschdienst Deutsche Forschungsgemeinschaft Siemens AG AUDI AG Kontakt: Dr.-Ing. Falko Dressler Tel.: 09131 85 27914 Fax: 09131 85 27409 E-Mail: [email protected] The development and the control of self-organizing, self-configuring, self-healing, self-managing, and adaptive communication systems and networks are primary research aspects of the autonomic networking team. The employed embedded systems, e.g. sensor motes and mobile robots, are getting smaller, more mobile, and more energy aware. Novel mechanisms in operating systems, in the communication infrastructure, and in applications provide enormous energy savings. Sensor motes are used e.g. for the collection, the processing, and the communication of measurement data. Another research aspect of our group is the combination of mobile robot systems with stationary sensor networks. Such mobility enhancements as well as the limited resources in typical sensor networks lead to new problems, challenges, and solution spaces in terms of efficient data management and communication. In addition to engineering methods we investigate in bio-inspired methodologies learnt from cell and molecular biology to address these issues. Research Goals • Energy efficient operation, communication, and navigation • Sensor assisted localization and navigation 274 • Quality of service aware communication in heterogeneous mobile networks with dynamic topology • Optimized task allocation and communication based on application and energy constraints • Secure communication and data management in mobile sensor networks Solution Space • Novel models for energy and application aware communication • Combination of different localization techniques for optimized high-precision navigation • Bio-inspired communication methods for information exchange and task allocation • Integration of mobile robots and stationary sensor nodes to autonomous mobile sensor/actuator networks Publikationen – Sommer, Christoph ; Dietrich, Isabel ; Dressler, Falko: A Simulation Model of DYMO for Ad Hoc Routing in OMNeT++ . In: n.b. (Hrsg.) : Proc. of 1st ACM/ICST Intern. Conf. on Simulation Tools and Techniques for Communications, Networks and Systems : 1st ACM/ICST International Workshop on OMNeT++ (SIMUTools 2008 : OMNeT++ 2008 Marseille, France March 2008). 2008, S. -. – Chen, Feng ; Wang, Nan ; German, Reinhard ; Dressler, Falko: Performance Evaluation of IEEE 802.15.4 LR-WPAN for Industrial Applications . In: n.b. (Hrsg.) : Proc. of 5th IEEE/IFIP Conference on Wireless On demand Network Systems and Services ((IEEE/IFIP WONS 2008) Garmisch-Partenkirchen, Germany January 2008). 2008, S. 89-96. – Labella, Thomas Halva ; Dietrich, Isabel ; Dressler, Falko: BARAKA: A Hybrid Simulator of SANETs . In: n.b. (Hrsg.) : Proc. 2nd IEEE/ACM Int. Conf. on Communiation Systems Software and Middleware ((IEEE/ACM COMSWARE 2007) Bangalore, India January 2007). 2007, S. -. 275 – Dressler, Falko ; Fuchs, Gerhard ; Truchat, Sebastien ; Yao, Zheng ; Lu, Zengyu ; Marquart, Holger: Profile-Matching Techniques for On-demand Software Management in Sensor Networks . In: EURASIP Journal on Wireless Communications and Networking (JWCN) Special Issue on Mobile Multi-Hop Ad Hoc Networks: from theory to reality (2007), Nr. Article ID 80619, S. 10 – Awad, Abdalkarim ; Frunzke, Thorsten ; Dressler, Falko: Adaptive Distance Estimation and Localization in WSN using RSSI Measures . In: Kubatova, Hana (Hrsg.) : Proc. of 10th EUROMICRO Conference on Digital System Design Architectures, Methods and Tools ((DSD 2007) Lübeck, Germany August 29-31, 2007). 2007, S. 471-478. – Dengler, Sebastian ; Awad, Abdalkarim ; Dressler, Falko: Sensor/Actuator Networks in Smart Homes for Supporting Elderly and Handicapped People . In: IEEE (Hrsg.) : Proc. 21st IEEE Int. Conf. on Advanced Information Networking and Applications: First International Workshop on Smart Homes for Tele-Health ((AINA2007 : SmarTel’07 Volume 2) Niagara Falls, Canada May 2007). 2007, S. 863-868. – Dressler, Falko ; Dietrich, Isabel ; German, Reinhard ; Krüger, Bettina: Efficient Operation in Sensor and Actor Networks Inspired by Cellular Signaling Cascades . In: ACM (Hrsg.) : Proc. of 1st ICST/ACM International Conference on Autonomic Computing and Communication Systems ((Autonomics 2007) Rome, Italy October 2007). 2007, S. -. – Dressler, Falko: Self-Organization in Sensor and Actor Networks . Chichester : John Wiley & Sons, 2007 – Dressler, Falko ; Nebel, Rodrigo ; Awad, Abdalkarim: Distributed Passive Monitoring in Sensor Networks . In: n.b. (Hrsg.) : Proc. 26th Annual IEEE Conf. on Computer Communications (IEEE INFOCOM 2007, Demo Session Anchorage, Alaska, USA May, 2007). 2007, S. .. – Passing, Martin ; Dressler, Falko: Practical Evaluation of the Performance Impact of Security Mechanisms in Sensor Networks . In: n.b. (Hrsg.) : Proc. of 31st IEEE Conference on Local Computer Networks : 1st IEEE International Workshop on Practical Issues in Building Sensor Network Applications ((LCN), (SenseApp 2006) Tampa, Florida, USA November 2006). 2006, S. 623-629. – Dietrich, Isabel ; Dressler, Falko: On the Lifetime of Wireless Sensor Networks . Erlangen-Nürnberg : Friedrich-Alexander-Universität. 2006 (04/06). – Interner Bericht 276 12.5.14 Security and Quality of Service and Aspects in ZigBee-based Wireless Communication Projektleitung: Dr.-Ing. Falko Dressler Beteiligte: Feng Chen, M. Sc. Stichwörter: Drahtlose Netze; ZigBee; Dienstgüte; Sicherheit Beginn: 1.7.2006 Förderer: Siemens AG A&D Kontakt: Dr.-Ing. Falko Dressler Tel.: 09131 85 27914 Fax: 09131 85 27409 E-Mail: [email protected] Based on the IEEE 802.15.4 standard, which defines the physical layer (PHY) and medium access control (MAC) sublayer specifications for Low Rate Wireless Personal Area Networks (LR-WPAN), the ZigBee Alliance complements the specifications at the network, security, and application layers and provides an open global standard for building ultra-low complexity, ultra-low cost, ultra-low power consumption, and low data rate WPANs. ZigBee has become one of the most recent and promising WPAN technologies and is getting more popular in wireless sensor network (WSN) applications. This project is a cooperated with SIEMENS AG A&D. Our primary research goals focus on quality of service (QoS) and security aspects in ZigBee-based WSN. We stress simulation and modeling techniques for performance evaluation. A complete model for the IEEE 802.15.4/Zigbee protocol stack is to be implemented in OMNeT++. This simulation tool has been extensively employed in our group. In our simulations, we apply various traffic models to investigate both, traditional performance measures (delay, latency, throughput, etc.) and other measures specifically for WSN like energy efficiency and real-time behavior (stressed in industrial monitoring and controlling). Self-organization has been identified as a promising control paradigm for massively distributed systems. We will also examine its applicability in ZigBee-based networks. With respect to security we are interested in the cost of the various available security mechanisms proposed in ZigBee specification. Simulation results will reveal how these security mechanisms affect the network performance. In the long-run, we aim to develop simulation-based methodologies for designing sensor networks for industrial control applications. 277 Publikationen – Chen, Feng ; Wang, Nan ; German, Reinhard ; Dressler, Falko: Performance Evaluation of IEEE 802.15.4 LR-WPAN for Industrial Applications . In: n.b. (Hrsg.) : Proc. of 5th IEEE/IFIP Conference on Wireless On demand Network Systems and Services ((IEEE/IFIP WONS 2008) Garmisch-Partenkirchen, Germany January 2008). 2008, S. 89-96. – Chen, Feng ; Dressler, Falko: A Simulation Model of IEEE 802.15.4 in OMNeT++ . In: n.b. (Hrsg.) : Proc. of 6. GI/ITG KuVS Fachgespräch Drahtlose Sensornetze, Poster Session (6. Fachgespräch Sensornetze der GI/ITG-Fachgruppe ”Kommunikation und Verteilte Systeme” Aachen, Germany July 2007). 2007, S. 35-38. – Dietrich, Isabel ; Chen, Feng ; German, Reinhard ; Dressler, Falko: Modeling energy consumption of wireless communications in OMNeT++ . In: n.b. (Hrsg.) : Proc. of GI/ITG KuVS Fachgespräch Systemsoftware und Energiebewusste Systeme (GI/ITG KuVS Fachgespräch Karlsruhe, Germany October 2007). 2007, S. . – Chen, Feng ; Dressler, Falko ; Heindl, Armin: End-to-End Performance Characteristics in Energy-Aware Wireless Sensor Networks . In: n.b. (Hrsg.) : Proc.of 3rd ACM International Workshop on Performance Evaluation of Wireless Ad Hoc, Sensor, and Ubiquitous Networks ((ACM PE-WASUN 2006) Torremolinos, Malaga, Spain October 2006). 2006, S. 41-47. 12.5.15 Self-organization of SN-MRS systems Projektleitung: Dr.-Ing. Falko Dressler Beteiligte: M.Sc. Thomas Halva Labella Laufzeit: 1.11.2005–30.4.2006 Förderer: DAAD The research objectives can be summarised by the following statement: the study of bio-inspired task allocation algorithms for SN-MRS systems with high number of units, and with particular attention to scalability, real-time constraints, reliability of the transmitted data, success of robot operations and network task-aware self-organisation. 278 Recently, a few projects have studied the integration of SNs and MRSs. The approaches in the literature follow usually two ways. In the first one, sensors are treated as ”helpers” for the robots. They are for instance landmarks that robots follow to navigate in dificult environments. In the second approach, the robots help the sensor network, for instance by replacing out-of-work pieces or, since they have room for bigger batteries and they can afford more powerful transmission, they work as gateways for long distance communication. In both cases, the interactions between robots and network are outbalanced either toward SN or toward MRS. The former approach (”sensors help robots”) seems to be followed mainly by researchers with a strong background in robotics and Artificial Intelligence, the latter (”robots help sensors”) by researchers coming from the telecommunication field. Seen from a high abstraction level, the main objective of this proposal is to change the approach to SN-MRS systems. We do no want to treat them as the sum of two systems, but only as one heterogeneous system, where the difference between static and mobile units becomes fuzzier. To design and program such systems, it is required a good knowledge of both telecommunication networks and robotics. Both approaches have their advantages and disadvantages, but we believe that pushing the integration further will reveal new possible applications and interesting solutions for SN-MRS systems. The following research aspects affect our developments: • number of units • time constraints • task allocation • network-robot interactions Publikationen – Labella, Thomas Halva ; Dressler, Falko: A Bio-Inspired Architecture for Division of Labour in SANETs . In: Dressler, Falko ; Carreras, Iacopo (Hrsg.) : Advances in Biologically Inspired – Models, Methods, and Tools. Bd. 69. Heidelberg : Springer, 2007, (Studies in Computational Intelligence Bd. 69), S. 209-228. – Labella, Thomas Halva ; Dietrich, Isabel ; Dressler, Falko: BARAKA: A Hybrid Simulator of SANETs . In: n.b. (Hrsg.) : Proc. 2nd IEEE/ACM Int. Conf. on Communiation Systems Software and Middleware ((IEEE/ACM COMSWARE 2007) Bangalore, India January 2007). 2007, S. -. 279 – Labella, Thomas Halva ; Fuchs, Gerhard ; Dressler, Falko: A Simulation Model for Self-organised Management of Sensor/Actuator Networks . In: n.b. (Hrsg.) : Proc. of GI/ITG KuVS Fachgespräch Selbstorganisierende, Adaptive, Kontextsensitive verteilte Systeme (SAKS Kassel, Germany March, 2006). 2006, S. -. 12.5.16 Sensitivity Analysis of Queueing Networks Projektleitung: Dr.-Ing. Armin Heindl Beteiligte: Prof. Dr. Miklos Telek Prof. Dr. Evgenia Smirni Qi Zhang Stichwörter: queueing networks; sensitivity analysis; matrix-analytic techniques; traffic-based decomposition; Markovian arrival processes Beginn: 1.1.2004 Mitwirkende Institutionen: TU Budapest, Hungary College of William and Mary, VA, USA Kontakt: Dr.-Ing. Armin Heindl Tel.: +49 9131 85 27099 Fax: +49 9131 85 27409 E-Mail: [email protected] Analytical models are particularly well suited for studying the impact of various parameters on system performance. Such studies require numerous evaluations of the model. Simulation models may lead to prohibitively long run times and the approximate nature of corresponding numerical results aggravates their interpretation in the context of sensitivity analysis. In this research effort, matrix-analytic techniques from queueing theory are combined to establish a framework for the analysis of (large) queueing networks. In a divideand-conquer fashion, the network is evaluated (possibly iteratively) on a node-by-node basis, while queue output traffic is characterized and directed to downstream queues as input traffic (traffic-based decomposition). Dedicated procedures for the key step of output characterization have been developed as well as new techniques for the analysis of multi-class queueing systems. Sensitivity analysis indispensibly requires compact models to describe correlated arrival and service processes (i.e., correlated workload), in which single input parameters (like 280 correlation coefficients of the interarrival process or higher moments of service times) can be modified independently of others. Such correlated input models have been provided in form of low-order Markovian Arrival Processes (MAPs), which moreover may also be applied efficiently in simulations. From sensitivity analysis, new insight for network and traffic engineering could be derived in the context of cooperations with the College of William and Mary, VA, USA and the TU Budapest, Hungary. Prof. Miklos Telek visited our research group. Publikationen – Söhnlein, Sven ; Heindl, Armin: Analytic Computation of End-To-End Delays in Queueing Networks with Batch Markovian Arrival Processes and Phase-Type Sevice Times . In: Al-Begain, Khalid (Hrsg.) : Proc. of 13th International Conference on Analytic and Stochastic Modelling Techniques and Applications ((ASMTA 2006) Bonn, Sankt Augustin, Germany May, 28-31, 2006). 2006, S. 1-7. – Heindl, Armin ; Gross, Karsten: Analytic study of multiplexing effects in twoclass queues with correlations . In: German, Reinhard ; Heindl, Armin (Hrsg.) : Proc. 13th GI/ITG Conference (Measuring, Modelling and Evaluation of Computer ans Communication Systems, Nürnberg, Germany March 27-29,2006). Berlin : VDE Verlag GmbH, 2006, S. 399-416. – ISBN 3-8007-2945-8 – Heindl, Armin ; Horváth, Gábor ; Gross, Karsten: Explicit Inverse Characterization of Acyclic MAPs of Second Order . In: Horváth, András ; Telek, Miklós (Hrsg.) : Formal Methods and Stochastic Models for Performance Evaluation (Third European Performance Engineering Workshop, EPEW 2006 Budapest, Hungary June, 2006). Heidelberg : Springer, 2006, S. 108-122. (Lecture Notes in Computer Science Bd. 4054) – Zhang, Q. ; Heindl, Armin ; Smirni, E.: Characterizing the BMAP/MAP/1 departure process via the ETAQA truncation . In: Stochastic Models 21(2-3) (2005), S. 821-846 – Zhang, Q. ; Heindl, Armin ; Smirni, E.: Models of the departure process of a BMAP/MAP/1 queue . In: ACM SIGMETRICS Performance Evaluation Review (2005), Nr. 33/2, S. 18-20 – Heindl, Armin ; Zhang, Q. ; Smirni, E.: ETAQA Truncation Models for the MAP/MAP/1 Departure Process . In: Haverkort, B. ; Franceschini, G. ; Katoen, J.-P. ; Woodside, M. (Hrsg.) : Proc. 1st Int. Conf. on the Quantitative Evaluation of Systems (QEST 2004 Enschede, the Netherlands 27-30 September 2004). 2004, S. 100-109. – ISBN 0-7695-2185-1 281 – Heindl, Armin: Inverse Characterization of Hyperexponential MAP(2)s . In: AlBegain, Khalid ; Bolch (Hrsg.) : 11th Int. Conf. on Analytical and Stochastic Modelling Techniques and Applications (ASMTA 2004 Magdeburg, Germany 1316 June 2004). 2004, S. 183-189. – Heindl, Armin: Sensitivity Analysis for MAP/MAP/1 Queues . In: Buchholz, Peter ; Lehnert, Ralf ; Pioro, Michal (Hrsg.) : 12th GI/ITG Conf. on Measuring, Modelling and Evaluation of Computer and Communication Systems (MMB) together with 3rd Polish-German Teletraffic Symposium (PGTS) (MMB & PGTS 2004 Dresden, Germany September 12-15, 2004). Berlin : VDE Verlag GmbH, 2004, S. 235-244. – ISBN 3-8007-2851-6 12.5.17 Software-in-the-Loop Simulation and Testing of Highly Dependable Distributed Automotive Applications Projektleitung: Prof. Dr.-Ing. Reinhard German Beteiligte: Dipl.-Inf. Thorsten Frunzke Stichwörter: Automotive Technology, Dependable Embedded Components and Systedots , Simulation of Time-Triggered InCar Commudots , Model-in-the-Loop, Testing Laufzeit: 1.12.2006–30.11.2009 Förderer: AUDI AG (Ingolstadt) Kontakt: Prof. Dr.-Ing. Reinhard German Tel.: +49 9131 85 27916 Fax: +49 9131 85 27409 E-Mail: [email protected]uni-erlangen.de Electronic units are increasingly integrated into vehicles and gain more and more importance. This affects the domains of control and regulation as well as of information and communication. To handle this growing complexity during the product development process poses a hard problem. As a consequence, errors often remain undetected until integration. At this point, error correction leads to a high effort in time and money. Therefore, test processes must be extended also to earlier stages so that the increasing complexity becomes controllable. The main focus of this work lies on the validation and verification of the DECOS (De282 pendable Embedded Components and Systems) integrated architecture for highly dependable embedded clusters in the automotive industry. The AEV (Audi Electronics Venture GmbH, Ingolstadt, Germany) is supplied with a cluster that can be used for simulating highly dependable distributed automotive applications, such as a driver assistance and collision avoidance system by means of a Matlab/Simulink Model in the Loop (MiL). The goal is to extend this model in such a way that the most significant features of the DECOS integrated architecture are taken into account. This requires to • simulate a time-triggered network communication between different simulation blocks, representing the ECUs of a vehicle, based on the DECOS virtual network (VN) concept using FlexRay as communication core. • simulate a time-triggered inter-process communication between the different tasks and processes inside one single ECU, represented by a set of simulation subsystems, based on the DECOS encapsulated execution environment (EEE) concept. • simulate the behavior of a time-triggered core operating system, for example OSEKtime or TTPos in the simulation model. • simulate the middleware as a connector between DECOS high-level services and the application code in the simulation model. • generate and evaluate test cases, for example with software implemented fault injection (SWIFI). 12.5.18 Telematics Services in Hybrid Networks Projektleitung: Dr.-Ing. Armin Heindl Beteiligte: Prof. Dr.-Ing. Reinhard German Stichwörter: telematics; car information systems; GSM; DAB; simulation Laufzeit: 1.1.2004–30.6.2006 Förderer: BMW AG (Munich) Mitwirkende Institutionen: Science of Traffic Policy, Traffic Technology (EW-1, BMW) Kontakt: Dr.-Ing. Armin Heindl 283 Tel.: +49 9131 85 27099 Fax: +49 9131 85 27409 E-Mail: [email protected] Traffic- or media-related information may be delivered to (and from) cars and/or drivers in many different ways and via various communication or distribution systems. This cooperation with partner BMW AG focuses on a hybrid network in which different classes of messages with specific quality-of-service (QoS) requirements are transmitted to cars either via a broadcast or a point-to-point channel, more specifically either via the DAB system (Digital Audio Broadcasting) or via GSM (Global System for Mobile Communications). For example, urgent traffic control messages need to be received with tightly bounded delays, whereas some media streams are more sensitive to jitter (i.e., variability of interarrival times). On the other hand, only a limited capacity of the DAB broadcasting caroussel might be contracted for a fixed cost, while overflow traffic must be delivered by GSM services causing additional expenses. Detailed simulation models as well as compact analytical models are developed to determine the minimal cost for meeting the QoS requirements in such hybrid networks. Publikationen – Hu, Jing ; German, Reinhard ; Heindl, Armin ; Kates, Ronald ; Unbehaun, Matthias: Traffic modelling and cost optimization for transmitting traffic messages over a hybrid broadcast and cellular network . In: n.b. (Hrsg.) : Proc. 8th Int. IEEE Conf. on Intelligent Transportation Systems (ITSC Vienna, Austria September 2005). 2005, S. .. 12.5.19 Transmission of Safety-Relevant Sensor Data in Intra-Car Communication Systems Projektleitung: Prof. Dr.-Ing. Reinhard German Beteiligte: Thomas Herpel, M. Sc. Stichwörter: Automotive Technology, Intra-Car Communication Networks, Reliability Laufzeit: 1.12.2006–30.11.2009 Förderer: AUDI AG (Ingolstadt) 284 Safety and Mitwirkende Institutionen: Safety-Electronics / Airbag-Control-Systems Kontakt: Prof. Dr.-Ing. Reinhard German Tel.: +49 9131 85 27916 Fax: +49 9131 85 27409 E-Mail: [email protected] Currently used airbag systems work independently, consisting of only few external and internal sensors and several firing units. To fulfill the demands of safety in an automotive environment, sensors and controllers are designed redundantly, plausibility tests are performed and activation of actuators is proved against misuse by so-called safing-concepts. The connection of different electronic systems within the car – e.g. electronic stability program (ESP) or anticipatory sensors with the airbag control unit (ACU) – leads to new architectures with sensors, actuators and several controllers. As a consequence of the connection, more signals and sensor data are available to the single control units and self-test functions can be integrated in software, increasing the reliability, availability and safety of the system while costs can be reduced as redundant components may become unnecessary. Nevertheless, the complexity of the overall system grows with such a distributed design of the intra-car network, especially in terms of predicting performance measures such as latencies, firing times or failure probabilities. To overcome this, a method is to be developed to analyze existing design layouts as well as new architecture patterns, taking into account key characteristics of network components (bus system and topology, controller, sensor), investigated scenarios (crash, rollover, pre-crash phase, pedestrian protection) and common reliability engineering methods (SIL, FMEA, FTA, FEM, discrete and/or continuous simulation, Markov Chains). The method shall be validated by measurements for an actual system configuration on the one hand, while its basic applicability to arbitrary design patterns is to be assured on the other hand. The results are intended to give a sound basis for predicting the system behavior, especially when discussing new layout decisions in industrial committees (VDA) or boards of directors. 12.5.20 Web Cluster Laboratory Projektleitung: Prof. Dr.-Ing. Reinhard German Beteiligte: 285 Dipl.-Inf. Kai-Steffen Jens Hielscher Stichwörter: web cluster; measurement infrastructure; performance evaluation; distributed web server; GPS; bookshop; UML model; simulation; time synchronization; one-way delays; autocorellation, input modeling Beginn: 1.10.2001 Kontakt: Prof. Dr.-Ing. Reinhard German Tel.: +49 9131 85 27916 Fax: +49 9131 85 27409 E-Mail: [email protected] The hardware in our Web Cluster Laboratory is composed of commodity PC hardware and equipped with additional measurement infrastructure for performance evaluation. PCs with cheap off-the-shelf components are interconnected using a fast/gigabit ethernet switch. We use Open Source solutions for the operating systems and all other software needed. The system is used as a distributed web server serving both static and dynamic content. The dynamic generation of web pages includes on-demand generation of HTML pages from XML documents using XSL, and a full-featured e-commerce system, which consists of an Enterprise Java Beans implementation of a bookshop as specified by the TPC-W benchmark. The measurement infrastructure is composed of several GPS receiver cards connected to a roof-mounted GPS antenna. For time synchronization, we use a combination of NTP and the PPS API, where our GPS receivers generate precise pulses marking the start of every second. We use additional hardware to connect the PPS pulse to every node of the cluster. A kernel buffer is used to record time stamps for relevant events inside the kernel during the measurement process. Buffering the kernel time stamps enables us to conduct measurements with high data volume and microsecond precision. Additionally, we record time stamps for important events in user-space processes and measure the ressource utilization. The use of an external clock for measuring the interrupt lantency for every PPS pulse and correcting the time stamps used by NTP afterwards has been evaluated and an external clock device using FPGAs for every node of the cluster is currently being developed. As an additional method for time stamping in a distributed system, we have implemented an offline synchronization mechanism in which the unsynchronized local clocks of the cluster nodes are used to time stamp both events relevant for our analyses and the arrival of PPS pulses. Since the precise frequency and offset from UTC is known for the PPS pulses, the time stamps for the events can be related to UTC after the measurement in an offline synchronization process. 286 We use both httperf and SURGE as load generators for our web server. SURGE generates traffic patterns similar to real user behaviour with heavy-tailed distributions and self-similar traffic as observed empirically in recent studies of the internet. We built a simulation model of the Web cluster which includes relevant aspects of the hardware, operating and communication systems as well as the application layer as it is required for a realistic performance evaluation of such systems. We formulated the model in UML taking into account both architectural and behavioral aspects and applied detailed system-level measurements at low loads for determining the basic parameters. These are mainly one-way delays which implicitly include other system behavior like interrupt latencies and show random behavior. We applied advanced input modeling techniques including multi-modal distributions, multiple phases, and Bézier curves for unconventional shapes to adequately represent all quantities. We also proposed a new model based on differences between successive delays for the autocorrelations observed in the measurements. The UML simulation model explicitly represents higher level dynamics which significantly affect the behavior at higher loads including buffering, resource contention, and transport control. The model predicts well the quantiles of the overall delay for HTTP responses. Publikationen – Dietrich, Isabel ; Hielscher, Kai-Steffen Jens ; German, Reinhard: A Measurement-Based Simulation Model of a Web Cluster . In: Krüger, Jörg ; Lisounkin, Alexei ; Schreck, Gerhard (Hrsg.) : 3rd Int. Industrial Simulation Conference (ISC’2005 Berlin, Germany June 9-11, 2005). Ghent, Belgium : EUROSISETI, 2005, S. 88-92. – ISBN 90-77381-18-X – Truchat, Sébastien ; Hielscher, Kai-Steffen Jens ; Pflaum, Alexander: Towards Cost Efficient Mobile Services . In: Kotsis, G. ; Taniar, D. ; Ibrahim, I. K. (Hrsg.) : 2nd Int. Conf. on Advances in Mobile Multimedia (MOMM 2004 Bali, Indonesia Sept. 22-24, 2004). Bali : Österreichische Computer Gesellschaft, 2004, S. 179188. ([email protected] Bd. 184) – ISBN 3-85403-184-X – Hielscher, Kai-Steffen Jens ; German, Reinhard: A Low-Cost Infrastructure for High Precision High Volume Performance Measurements of Web Clusters . In: Peter Kemper ; William H. Sanders (Hrsg.) : Proc. 13th Conf. on Computer Performance Evaluations, Modelling Techniques and Tools (TOOLS 2003 Urbana, IL, USA September 2-5,2003). Heidelberg : Springer, 2003, S. 11-28. (Lecture Notes in Computer Science Bd. 2794) – ISBN 3-540-40814-2 287 – 12.6 Hielscher, Kai-Steffen Jens: Aufbau eines clusterbasierten Webservers zur Leistungsanalyse . Erlangen, Friedrich-Alexander-Universität Erlangen-Nürnberg, Dipl-Arb., 2001. – 96 Seiten. Studien- und Abschlussarbeiten – Diplomarbeit: Optimierung der Dokumentenbereitstellung durch ein XMLbasiertes Content Management System (CMS/DMS) Bearbeiter: Bin Wu (beendet am 02.01.2006) Betreuer: Dipl.-Inf. Kai-Steffen Jens Hielscher – Studien-/Diplomarbeit: Simulation und Analyse von DDoS-Angriffen Bearbeiter: Mathias Gorski (beendet am 04.01.2006) Betreuer: Dr.-Ing. Falko Dressler – Studienarbeit: Optimierung der Laufzeit- und SW-Umgebung eines embeddedLinux-Systems für den Einsatz zur Leistungsmessung eingebetteter Systeme Bearbeiter: Verena Dittrich (beendet am 16.01.2006) Betreuer: Dipl.-Inf. Kemal Köker – Studienarbeit: Messungen der Quality of Service (QoS)-Parameter eines embedded-Linux-Systems mit Echtzeit Erweiterung (RTAI) Bearbeiter: Richard Membarth (beendet am 23.01.2006) Betreuer: Dipl.-Inf. Kemal Köker – Studienarbeit: Implementierung eines Vorfallsmanagementsystems für ITSicherheit Bearbeiter: Alexander Vitzthum (beendet am 14.02.2006) Betreuer: Dipl.-Inf. Jochen Kaiser; Dr.-Ing. Falko Dressler – Studienarbeit: Software-Adaptierung eines autonomen Fußballroboters für den Einsatz zur Leistungsmessung eingebetteter Systeme Bearbeiter: Peter Schmidt (beendet am 14.02.2006) Betreuer: Dipl.-Inf. Kemal Köker – Diplomarbeit: Development and Analysis of an Energy Saving Medium Access Layer for a Multi-Hop Sensor Network Bearbeiter: Sylvia Moreno Lopez (beendet am 01.03.2006) Betreuer: Prof. Dr.-Ing. Reinhard German – Diplomarbeit: Kontrollierte Remote-Reprogrammierung von Mica2Sensorknoten Bearbeiter: Holger Marquardt (beendet am 06.03.2006) Betreuer: Dr.-Ing. Falko Dressler – Diplomarbeit: Simulation von neuartigen Routingverfahren für drahtlose Sensornetzwerke Bearbeiter: Korbinian Lindemann (beendet am 15.03.2006) Betreuer: – Studienarbeit: Rekonfigurierbare Navigationssoftware – Kommunikation und JAD Studie Bearbeiter: Thorsten Haberditzl (beendet am 17.03.2006) Betreuer: Dr.Ing. Winfried Dulz 288 – Diplomarbeit: Studenteninformationssystem SIS Bearbeiter: Peter Vache (beendet am 29.03.2006) Betreuer: – Diplomarbeit: Lokalisierung von Objekten in drahtlosen Sensornetzwerken Bearbeiter: Christian Resch (beendet am 31.03.2006) Betreuer: – Studienarbeit: Rekonfigurierbare Navigationssoftware – Profile Machting und UML Bearbeiter: Harald Bauer (beendet am 31.03.2006) Betreuer: Dr.-Ing. Winfried Dulz – Diplomarbeit: Konzeption und Implementierung eines Service Distribution Networks Bearbeiter: Markus Friedrich (beendet am 03.04.2006) Betreuer: Dipl.-Inf. Kai-Steffen Jens Hielscher – Studienarbeit: Güteverbesserung der Produktionsreihenfolgen in der Automobilindustrie durch Ausnutzung der Puffer Bearbeiter: Alexander Helmut Hummel (beendet am 15.04.2006) Betreuer: – Master Thesis: Generation of a U2TP-compatible Test Suite from a UML 2.0 Markov Chain Usage Model Bearbeiter: Aravind Kumar Kolla (beendet am 17.04.2006) Betreuer: Dr.-Ing. Winfried Dulz – Diplomarbeit: Anlytische Konstruktion korrelierter Prozesse zur Lastmodellierung in Kommunikationssystemen Bearbeiter: Karsten Gross (beendet am 25.04.2006) Betreuer: Dr.-Ing. Armin Heindl – Diplomarbeit: Statistisches Multiplex bei verteilter Codierung in DVB-H Bearbeiter: Christian Kellermann (beendet am 02.05.2006) Betreuer: Prof. Dr.-Ing. Reinhard German – Diplomarbeit: Aufgabenbeschreibung für mobile Roboterschwärme Bearbeiter: Mesut Ipek (beendet am 03.05.2006) Betreuer: Dipl.-Inf. Gerhard Fuchs; Dr.-Ing. Falko Dressler – Studienarbeit: Simulation von Kommunikationsmethoden in mobilen Sensornetzen Bearbeiter: Gang Wang (beendet am 20.05.2006) Betreuer: Dr.-Ing. Falko Dressler; Dipl.-Inf. Gerhard Fuchs – Studienarbeit: Profilbasierte Rekonfiguration von Sensorknoten-Profile Matching & Content Adaption Bearbeiter: Zengyu Lu (beendet am 06.06.2006) Betreuer: Dipl.-Inf. Gerhard Fuchs; Dr.-Ing. Falko Dressler – Studienarbeit: Profilbasierte Rekonfiguration von Sensorknoten – Kommunikationsaspekte Bearbeiter: Zheng Yao (beendet am 07.06.2006) Betreuer: Dipl.-Inf. Gerhard Fuchs; Dr.-Ing. Falko Dressler 289 – Studienarbeit: Imlementierung des Ad-hoc-Routing-Protokolls DYMO Bearbeiter: Mohamed Louizi (beendet am 09.06.2006) Betreuer: Dipl.-Inf. Isabel Dietrich; Dr.-Ing. Falko Dressler – Bachelor Thesis: Erweiterung einer Mikrocontroller-Ansteuerung für Fußballroboter für den Anschluss von Sensoren für analoge Signale und Weiterverarbeitung digitaler Signalwerte Bearbeiter: Jürgen Eckert (beendet am 11.06.2006) Betreuer: Dipl.-Inf. Kemal Köker – Studienarbeit: Audio- und Videoübertragung und Aufzeichnung durch mobile Robotersysteme Bearbeiter: Tobias Rühr (beendet am 27.06.2006) Betreuer: Dr.-Ing. Falko Dressler – Studienarbeit: Navigation and adaptive mapping of partially known surroundings Bearbeiter: Kun Yue (beendet am 10.07.2006) Betreuer: Dr.-Ing. Falko Dressler – Diplomarbeit: Selbstorganisiertes Sensornetzwerk-Deployment basierend auf biologischer Zelldifferenzierung Bearbeiter: Hakan Calim (beendet am 10.07.2006) Betreuer: Dipl.-Inf. Gerhard Fuchs; Dr.-Ing. Falko Dressler – Studienarbeit: Informationssammlung und Lokalisierung mit RFID Technologie für mobile Roboter Bearbeiter: Helmut Wünsch (beendet am 18.07.2006) Betreuer: Dr.-Ing. Falko Dressler; Dipl.-Inf. Gerhard Fuchs – Diplomarbeit: Erweiterung einer bestehenden netfilter-basierten Packet-LoggingImplementierung Bearbeiter: Mario Lasch (beendet am 31.08.2006) Betreuer: Dipl.-Inf. Kai-Steffen Jens Hielscher – Diplomarbeit: PLL-basierte Verfahren zur Offline-Analyse von Zeitstempeln Bearbeiter: Johannes Dodenhoff (beendet am 31.08.2006) Betreuer: Dipl.-Inf. KaiSteffen Jens Hielscher – Diplomarbeit: Adaptive Lokalisierungstechniken in drahtlosen Sensornetzen Bearbeiter: Thorsten Frunzke (beendet am 01.09.2006) Betreuer: Dr.-Ing. Falko Dressler – Diplomarbeit: Konzeption und Realisierung eines Bewertungssystems für das Angebot eines internetbasierten Hotel-Reservierungsdienstes Bearbeiter: Eva Herrmann (beendet am 01.09.2006) Betreuer: Prof. Dr.-Ing. Reinhard German; Prof. Dr. Freimut Bodendorf – Bachelor Thesis: Sensor-/Aktornetz im Smart Home zur Unterstützung behinderter/älterer Menschen Bearbeiter: Sebastian Dengler (beendet am 12.09.2006) Betreuer: Dr.-Ing. Falko Dressler 290 – Diplomarbeit: Analyse und Gestaltung der IT-Sicherheit in Netzwerkorganisationen am Beispiel von Praxisnetzen – ein Vorgehensmodell Bearbeiter: Ferhat Acikel (beendet am 06.10.2006) Betreuer: Dr. Günter Schicker – Bachelor Thesis: Korrelation von Monitoring-Daten und HoneypotInformationen Bearbeiter: Wolfgang Jägers (beendet am 30.10.2006) Betreuer: Dr.-Ing. Falko Dressler – Diplomarbeit: Untersuchung von Ad Hoc Kommunikation in VANETs Bearbeiter: Christoph Sommer (beendet am 14.11.2006) Betreuer: Dr.-Ing. Falko Dressler – Studienarbeit: Adaptierung einer Visions- und Strategie-Implementation für autonome Fußballroboter Bearbeiter: Norbert Maurer (beendet am 23.11.2006) Betreuer: Dipl.-Inf. Kemal Köker – Studienarbeit: Experimentelle Evaluierung von Sicherheitsmechanismen für drahtlose Sensornetze Bearbeiter: Martin Passing (beendet am 27.11.2006) Betreuer: Dr.-Ing. Falko Dressler – Diplomarbeit: Integration eines Simulations- und Fertigungsplanungstools in ein HMI-System Bearbeiter: Axel Schlicker (beendet am 28.11.2006) Betreuer: Dr.Ing. Armin Heindl – Studienarbeit: Konzeption und Implementierung einer Single-Sign-On- und Imageverteilungs-Lösung für Windows und Linux Bearbeiter: Andreas Meisinger (beendet am 15.12.2006) Betreuer: Dipl.-Inf. Kai-Steffen Jens Hielscher – Diplomarbeit: Realisierung eines ortsabhängigen UPnP ControlPoints Bearbeiter: Mathias Gorski (beendet am 02.01.2007) Betreuer: Prof. Dr.-Ing. Reinhard German – Diplomarbeit: Selbstverwaltung in FPGA-basierten Berechnungsknoten in Sensornetzwerken Bearbeiter: Dominik Murr (beendet am 22.01.2007) Betreuer: Dr.Ing. Falko Dressler – Diplomarbeit: Erstellung eines Simulationsmodells für den RAC (reliable authenticated communication) Algorithmus für sichere Kommunikation in Ad-Hoc Netzwerken Bearbeiter: Sven Kerschbaum (beendet am 24.01.2007) Betreuer: Dr.-Ing. Falko Dressler – Studienarbeit: Erstellung eines OMNeT++ Simulationsmodells für WPDD (Weighted Probabilistic Data Dissemination) Bearbeiter: Nan Wang (beendet am 30.01.2007) Betreuer: Dr.-Ing. Falko Dressler 291 – Diplomarbeit: Netzwerkzentrische Datenverarbeitung in Sensor-/Aktornetzen Bearbeiter: Johannes Rauh (beendet am 01.02.2007) Betreuer: Dr.-Ing. Falko Dressler – Master Thesis: Selbstlokalisierung von mobilen Endgeräten in dynamischen Funknetzen Bearbeiter: Thorsten Vaupel (beendet am 01.02.2007) Betreuer: Prof. Dr.Ing. Reinhard German – Diplomarbeit: Passives Monitoring in Sensornetzen Bearbeiter: Rodrigo Nebel (beendet am 28.02.2007) Betreuer: Dr.-Ing. Falko Dressler – Studienarbeit: Process-Oriented and Event-Based Simulation and Visualization of a Random Job-Shop Problem Bearbeiter: Jens Botzenhard (beendet am 28.02.2007) Betreuer: Dr.-Ing. Armin Heindl – Diplomarbeit: On-the-fly Interpretation von UML 2.0 Anwendungsszenarien in einer automatisch generierten TTCN-3 Testsuite Bearbeiter: Haberditzl Thorsten (beendet am 15.03.2007) Betreuer: Dr.-Ing. Winfried Dulz – Diplomarbeit: Effizienzbetrachtung von Peer-to-Peer-Techniken in drahtlosen Sensornetzen Bearbeiter: Benjamin Gröbner (beendet am 20.03.2007) Betreuer: Dr.-Ing. Falko Dressler – Studienarbeit: Modellierung und Visualisierung einer Fertigungsanlage mit RealTime UML Bearbeiter: Christian Lauks (beendet am 30.03.2007) Betreuer: Dr.Ing. Armin Heindl – Master Thesis: Distributed Simulation with the Software AnyLogic Bearbeiter: Andre Kaiser (beendet am 31.03.2007) Betreuer: Dr.-Ing. Armin Heindl – Studienarbeit: Datenspeicherung und SQL-basierte Abfrage in Sensornetzen Bearbeiter: Wei Xie (beendet am 17.04.2007) Betreuer: Dr.-Ing. Falko Dressler – Diplomarbeit: Integration eines generischen Cache-Simulators in den Echtzeitsimulator chronSim Bearbeiter: Helmar Wieland (beendet am 30.04.2007) Betreuer: Prof. Dr.-Ing. Reinhard German – Studienarbeit: Anwendung von Selbstlokalisierung in Sensor-/Aktornetzen Bearbeiter: Claudia Jäggle (beendet am 29.05.2007) Betreuer: Dr.-Ing. Falko Dressler – Bachelor Thesis: Development of an Express Aggregator for the Monitoring Toolkit Vermont Bearbeiter: Sebastian Steiner (beendet am 30.05.2007) Betreuer: Dr.Ing. Falko Dressler 292 – Diplomarbeit: Evaluierung und Modellierung eines eingebetteten Linux-Systems Bearbeiter: Peter Schmidt (beendet am 01.06.2007) Betreuer: Dipl.-Inf. Kemal Köker – Diplomarbeit: Entwicklung eines Verfahrens zur Optimierung des Datendurchsatzes für eine existierende proprietäre Medienzugriffsschicht für Sensornetzwerke Bearbeiter: David Ruiz (beendet am 12.06.2007) Betreuer: – Diplomarbeit: Performance-Evaluation von Java-basierten Simulatoren Bearbeiter: Ronny Heft (beendet am 15.06.2007) Betreuer: Dipl.-Inf. Isabel Dietrich – Studienarbeit: Simulative Untersuchung von Routingverfahren für Sensornetze anhand des Protokolls AODV Bearbeiter: Volker Schmitt (beendet am 22.06.2007) Betreuer: Dipl.-Inf. Isabel Dietrich – Studienarbeit: Situierte Informationsversorgung von Kunden in Shopumgebungen – Situationserkennung und Selektion von situierten Inhalten und Interaktionsmethoden Bearbeiter: Anatoli Djanatliev (beendet am 30.6.2007) Betreuer: Dr.-Ing. Winfried Dulz – Studienarbeit: Situierte Informationsversorgung von Kunden in Shopumgebungen – Erfassung von Kontextinformationen mithilfe von Bluetooth und RFID und Präsentation situierter Inhalte über mobile Endgeräte Bearbeiter: Vitali Schneider (beendet am 30.6.2007) Betreuer: Dr.-Ing. Winfried Dulz – Studienarbeit: Erweiterung einer grafischen Benutzeroberfläche zur Überwachung und Verwaltung mobiler Roboter Bearbeiter: Markus Walter (beendet am 09.07.2007) Betreuer: Dipl.-Inf. Gerhard Fuchs; Dr.-Ing. Falko Dressler – Diplomarbeit: Adaptive Übertragung von Multimediainhalten auf dem MPEG-4 File Format Bearbeiter: Ingo Hofmann (beendet am 31.07.2007) Betreuer: – Diplomarbeit: Statistische Analyse von OMNeT++ Simulationsergebnissen Bearbeiter: Martin Passing (beendet am 01.09.2007) Betreuer: Dipl.-Inf. Isabel Dietrich – Studienarbeit: Entwurf und Implementierung einer Literaturdatenbank Bearbeiter: Christoph Damm (beendet am 11.09.2007) Betreuer: Dipl.-Inf. Gerhard Fuchs; Dr.-Ing. Falko Dressler – Studienarbeit: Aufbau einer Experimentierumgebung für Selbstorganisation und Emergenz-Datenspeicherung und Visualisierung Bearbeiter: Stefanie Mika (beendet am 18.09.2007) Betreuer: Dipl.-Inf. Gerhard Fuchs 293 – Bachelor Thesis: Messung und Modellierung eines Visionssystems für Fußballroboter Bearbeiter: Markus Eppich (beendet am 01.10.2007) Betreuer: Dipl.-Inf. Kemal Köker – Bachelor Thesis: Integration einer verteilten Simulation mit AnyLogic 6 in Eclipse Bearbeiter: Michal Cachovan (beendet am 26.10.2007) Betreuer: Dr.-Ing. Armin Heindl – Studienarbeit: Probabilistische Aufgabenverteilung in autonomen Systemen Bearbeiter: Gernoth Roth (beendet am 31.10.2007) Betreuer: Dipl.-Inf. Gerhard Fuchs; Dr.-Ing. Falko Dressler – Diplomarbeit: Implementierung einer dynamischen Konfigurationsschnittstelle eines Netzwerküberwachungssystems Bearbeiter: Peter Baumann (beendet am 23.11.2007) Betreuer: Dipl.-Inf. Tobias Limmer; Dr.-Ing. Falko Dressler – Studienarbeit: Performance-Messung und Optimierung von J2EE-Anwendungen Bearbeiter: Olena Kolisnichenko (beendet am 30.11.2007) Betreuer: Dipl.-Inf. Kai-Steffen Jens Hielscher – Diplomarbeit: Gekoppelte Simulation von Straßen- und Netzwerkverkehr Bearbeiter: Zheng Yao (beendet am 17.12.2007) Betreuer: Dipl.-Inf. Christoph Sommer 294 13 Lehrstuhl für Informatik 8 (Künstliche Intelligenz) Anschrift: Am Weichselgarten 9, 91058 Erlangen-Tennenlohe Tel.: 09131/85-29906 Fax: 09131/85-29905 E-Mail: [email protected] Leitung: Prof. Dr. Herbert Stoyan Professoren: Prof. Dr.-Ing. Günther Görz Prof. Dr. Herbert Stoyan apl. Prof. Dr. Volker Strehl Sekretariat: Renate Lutzke Wiss. Mitarbeiter: Stefan Bienk Dr. rer. nat. Rüdiger Inhetveen Dr.-Ing. Bernd Ludwig Dr.-Ing. Stefan Mandl Dr. Sibylle Reichel Peter Reiß, M.A. Dipl.-Ing. Bernhard Schiemann Dr.-Ing. Sebastian Schmidt Der Lehrstuhl für Künstliche Intelligenz (KI) wurde 1990 mit der Berufung von Prof. Dr. H. Stoyan neu eingerichtet. Prof. Dr.-Ing. G. Görz wurde zum 1. 4. 1991 auf die C3-Professur berufen. Weiterhin gehört seit 1997 apl. Prof. Dr. Volker Strehl dem Lehrstuhl an. Der Lehrstuhl verfügt über vier Planstellen für wissenschaftliche Mitarbeiter, eine Techniker- und eine Sekretärinnenstelle; diese werden ergänzt durch eine wechselnde Anzahl an drittmittelgeförderten Projektmitarbeitern. Bis zur Abwicklung des Bayerischen Forschungszentrums für wissensbasierte Systeme (FORWISS) war dem Lehrstuhl die Forschungsgruppe ”Wissenserwerb” zugeordnet. 13.1 Forschungsschwerpunkte Mit der Einrichtung des Lehrstuhls wurden als Forschungsschwerpunkte festgelegt: KIProgrammiersprachen und -methoden, Wissensrepräsentation und -verarbeitung sowie 295 die Verarbeitung natürlicher Sprache. Durch die internationale Entwicklung ist das erste Thema inzwischen in eine Randlage geraten. Dennoch haben unsere Arbeiten zur Erweiterung der Logikprogrammierung und verteilten Realisierung von separaten Ableitungsverwaltungssystemen (”Reason Maintenance”) dazu beigetragen, eine aktuelle Lücke zu schließen. Inzwischen ist, nicht zuletzt durch die gewonnenen Erkenntnisse im Bereich des Wissenserwerbs, ein neuer Arbeitsschwerpunkt hinzugekommen: Anwendungen der Künstlichen Intelligenz. Als neues Thema wurde die Analyse gesprochener Sprache mit dem – im Herbst 2000 abgeschlossenen – BMBF-Verbundprojekt Verbmobil aufgenommen, das in Kooperation mit dem Lehrstuhl für Mustererkennung bearbeitet wurde, sowie die maschinelle Interpretation von Texten. Anwendungen auf Software Engineering (insbesondere Vorbereitung der Spezifikation und Wartung) und Mathematik (Wissenspräsentation und Beweisunterstützung) sind Themen aktiver Projektforschung; Ingenieurwissenschaften, Medizin und Geschichte werden als weitere Anwendungsfelder erschlossen. Eine besondere Rolle spielt dabei die Integration von Methoden und Verfahren der angewandten Logik, Wissensrepräsentation und -verarbeitung in multimediale Systeme und digitale Bibliotheken. Wissensrepräsentation, -präsentation und -verarbeitung gewinnen zunehmend an Bedeutung bei der Inhaltsmodellierung multimedialer Daten sowie der Entwicklung von Werkzeugen zur Erstellung digitaler Dokumente. Das wichtigste Anwendungsgebiet ist hier die technische Dokumentation in den Ingenieurwissenschaften; als ergänzende Anwendungsfelder werden Medizin, Geschichte, Kartographie und Digitale Bibliotheken erschlossen. Als weiterer Arbeitsschwerpunkt sind Methoden des Wissenserwerbs, die Erarbeitung von Wissensrekonstruktionen und die Definition von Normsprachen hinzugekommen. Die Sprachverarbeitung als dritter Schwerpunkt erfährt neue Herausforderungen im Kontext robuster Dialogsysteme. Die Grundlagenforschung zu Dialogen zielt auf die Entwicklung eines flexiblen adaptiven Dialogmoduls, der zusammen mit einer beschreibungslogischen Anwendungsmodellierung für verschiedenartige Sprachdialogsysteme und Assistenzsysteme eingesetzt werden soll. Forschungsschwerpunkte in Stichworten: Wissenserwerb, Anforderungsanalyse; Dokumentenverwaltung; Wissensentdeckung in Datenbanken; KI-Programmiersprachen; Expertensysteme, Assistenzsysteme; Hypermedia-Informationssysteme; Anwendung von KI-Methoden in verteilten Systemen; Wissensrepräsentation und -verarbeitung; Verarbeitung natürlicher Sprache und Dialogsysteme, Assistenzsysteme. 13.2 Forschungsrelevante apparative Ausstattung Der Lehrstuhl betreibt einen in das Institutsnetzwerk integrierten Sun-Server, sowie eine Reihe von vernetzten Arbeitsplatzrechnern (Sun-Workstations und PCs) als Grundaus296 stattung für jeden Wissenschaftlerarbeitsplatz und einen kleinen Rechnerpool für die Lehre und studentische Arbeiten. Dies wird ergänzt durch einige Drucker und Scanner; zur Beschaffung von Spezialgeräten bestand bisher noch keine Notwendigkeit. Gelegentlich anfallende besondere Anforderungen (Parallelrechner, Grossformatscanner) wurden durch im Institut oder über das Wissenschaftsnetz (WIN) verfügbare Ressourcen abgedeckt oder über Aufträge an Dritte befriedigt. 13.3 Kooperationsbeziehungen Der Lehrstuhl unterhält eine Reihe von Forschungskooperationen zu in- und ausländischen Universitäten und Forschungsinstituten, von denen nur einige hervorgehoben seien: Universität Hamburg, DFKI Saarbrücken, INSA und ULP Strasbourg, Univ. Paris 7 und 8, ITC-irst Trento, Stanford University – CSLI, RISC Linz, Univ. Marne-la-Vallee, Univ. Wien, Netzwerk Algebraic Combinatorics in Europe. Dies wird ergänzt durch Kooperationen mit der Wirtschaft, darunter Siemens AG, Erlangen und München; Temic AG, Ulm; Daimler-Chrysler Forschungszentrum, Ulm; Loewe AG, Kulmbach; Unilever AG. Angehörige des Lehrstuhls sind in den Vorständen des Sprachenzentrums, des Forums ”Neue Medien in der Lehre” der FAU, in verschiedenen Interdisziplinären Zentren der FAU (Lehr- und Lernforschung, Lexikographie, Dialektforschung, Mittelalterzentrum), der Virtuellen Hochschule Bayern und im Fakultätentag Informatik tätig. 13.4 Wissenschaftliche Tagungen KI-Jahrestagung der GI e.V. (Leitung 1996), KONVENS (Leitung 1992); mehrere Frühjahrsschulen Künstliche Intelligenz, Günne (Leitung 1991); Interdisziplinäres Kolleg Kognitionswissenschaft 2001, 2003, Günne; mehrere europäische Sommerschulen in Computerlinguistik; verschiedentlich Mitwirkung in Programmkommittees (u.a. KIJahrestagungen, KONVENS, KI-Frühjahrsschulen, Internationales Leibniz-Forum); Seminaire Lotharingien de Combinatoire (Mitglied der Leitung, mehrfach Durchführung von Treffen), Formal Power Series and Algebraic Combinatorics (Mitglied im Steering Committee seit 1991, Vorsitz des Program Comittees 1997), Computeralgebra in Lehre, Ausbildung und Weiterbildung (Mitglied der Leitung 2001-2003). 13.5 Forschungsprojekte 13.5.1 Abgasanlagen-Informations- und Tutor-System (AgITuS) Projektleitung: 297 Prof. Dr. Herbert Stoyan Beteiligte: Dipl.-Phys. Markus Hormeß Dr.-Ing. Raymond Bimazubute Barbara Grille, M.A. Stichwörter: Wissensmanagement; Sicherung von Expertenwissen Beginn: 1.1.1999 Förderer: Audi AG, Ingolstadt Die AUDI AG (Ingolstadt) und die FORWISS-Forschungsgruppe Wissenserwerb entwickeln seit 1999 ein technisches Abgasanlagen-Informations- und Tutor-System (AgITuS), das neuen Mitarbeitern die Einarbeitung in ihr neues Aufgabengebiet erleichtern soll. Vorhandenes Expertenwissen in einer Abteilung wird zusammen mit den notwendigen technischen Dokumenten in einem Informationssystem zusammengefasst. Dazu baut das Projektteam der Forschungsgruppe Wissenserwerb um Prof. Stoyan ein Hypertext-System auf, mit dem neue Mitarbeiter via Intranet einfach und schnell auf die relevanten Informa tionen zugreifen können. Unterstützt werden sie dabei von einem Tutor-System und einer Suchmaschine. Erfahrene Mitarbeiter werden durch AgITuS bei der Einarbeitung neuer Mitarbeiter entlastet und können ihre Kernkompetenz ausbauen. Indem Projektabläufe, Dokumentation und Fachsprache vereinheitlicht werden, liefert AgITuS zudem einen Beitrag zur Qualitätssicherung. Machbarkeit und Rentabilität des Projekts AgITuS wurden von den FORWISSWissenschaftlern zunächst in einer Vorstudie untersucht. Für die Entwicklung des Informations- und Tutor-Systems sind in der ersten Phase mehrere Personenjahre veranschlagt. In einer zweiten Projektphase soll ein Checklisten- und Kritiksystem entwickelt werden. Mit intelligenten Checklisten sollen Mitarbeiter bei der Konstruktion von Abgasanlagen unterstützt und gegebenenfalls auf mögliche Fehlentscheidungen hingewiesen werden. Die Arbeiten in dem Projekt AgITuS wurden auch im Jahr 2001 erfolgreich fortgesetzt und auf weitere Abteilungen von Audi ausgedehnt. Außerdem wurde im Jahr 2001 die Spin-Off-Firma COGNEON GmbH gegründet, die in enger Kooperation mit der FORWISS-Forschungsgruppe Wissenserwerb Dienstleistungen auf dem Gebiet der Wissenssicherung von Experten anbietet und die Projekte mit Audi fortführt. Publikationen – Hausdorf, Carsten ; Stoyan, Herbert: Integrierte Wissensnutzung und Wissenslieferung bei der Verwendung eines Informationssystems . In: Jakobs, E.-M. ; 298 Knorr, D. (Hrsg.) : Tagungsband des PROWITEC-Kolloquiums (Textproduktion und Medium Wien 2000). 2000, S. ?-?. – Grille, Barbara ; Stoyan, Herbert ; Gaede, Bernd ; Müller, Michael: Die effiziente Erstellung hypertexbasierter Informations- und Tutorsysteme aus Experteninterviews . In: Hans-Peter Schnurr ; Steffen Staab ; Rudi Studer ; Gerd Stumme ; York Sure (Hrsg.) : Professionelles Wissensmanagement, Erfahrungen und Visionen (WM 2001 Baden-Baden 2001). Aachen : Shaker, 2001, S. 364-378. ISBN 3-8265-8611-5 – Hausdorf, Carsten ; Müller, Michael: Kaskadierter Wissenserwerb beim Wissensmanagement . In: Gronau, N (Hrsg.) : Wissensmanagement: Systeme – Anwendungen – Technologien (2. Oldenburger Forum für Wissensmanagement Oldenburg 2001). 2001, S. ?-?. – Bimazubute, Raymond ; Stoyan, Herbert ; Müller, Michael: Toolgestützte Nachbereitung von Experteninterviews für den Aufbau hypertextbasierter Wissenssysteme . In: Hans-Peter Schnurr ; Steffen Staab ; Rudi Studer ; Gerd Stumme ; York Sure (Hrsg.) : Professionelles Wissensmanagement, Erfahrungen und Visionen (WM 2001 Baden-Baden 2001). Aachen : Shaker, 2001, S. 351-363. – ISBN 38265-8611-5 – Farnschläder, Frank ; Stoyan, Herbert ; Müller, Michael: Von der Wissensquantität zur Wissensqualität . In: n/a (Hrsg.) : Qualität und Zuverlässigkeit (QZ). n/a : Carl Hanser, 2001. 13.5.2 Agentenbasiertes Tracking und Tracing der betrieblichen Leistungserstellung entlang der Wertschöpfungskette Projektleitung: Prof. Dr.-Ing. Günther Görz Prof. Dr. Freimut Bodendorf Beteiligte: Dipl.-Kfm., Dr. Roland Zimmermann Dipl.-Ing. Bernhard Schiemann Dipl.-Inf. Stefan Winkler Dipl.-Kfm. Robert Butscher Dipl.-Inf. Alexander Huber Stichwörter: Agentensysteme; Planung; Supply Chain Laufzeit: 1.7.2000–30.6.2006 299 Förderer: Deutsche Forschungsgemeinschaft (DFG) Kontakt: Prof. Dr.-Ing. Günther Görz Tel.: 09131/85-28701 Fax: 09131/85-28986 E-Mail: [email protected] Der Einsatz intelligenter Softwareagenten für die Fortschrittsverfolgung der zwischenbetrieblichen Leistungserstellung sowohl während der Produktion (Tracking) als auch nach Abschluss der Produktion (Tracing) in einem elektronisch gekoppelten Unternehmensverbund ermöglicht die kosten- und zeitsparende dezentrale Sammlung von Produktionsfortschrittsmeldungen. Mit Hilfe konfigurierbarer Agentenkomponenten wird die Erstellung domänenspezifischer Agentensysteme erleichtert. Das Projekt fokussiert auf die Analyse unterschiedlicher Tracking- und Tracing-Szenarien innerhalb einer Supply Chain, auf die Bewertung möglicher Einsatzoptionen agentenbasierter Systeme sowie auf die Konzeption und die prototypische Realisierung deliberativer Softwareagenten, die die Tracking- bzw. Tracing-Recherche planen und durchführen. Dabei sollen wiederverwendbare Bausteine identifiziert und implementiert werden. Weiterhin soll eine Ontologie für die Domäne ”Supply Chains” entwickelt werden. Für die Rechercheplanung werden unterschiedliche Planungsverfahren evaluiert. Diese müssen dann ggf. für die Anwendung des Tracking und Tracing angepasst werden. Publikationen – Görz, Günther ; Bodendorf, Freimut ; Huber, Alexander ; Hofmann, Oliver ; Zimmermann, Roland: Tracking-und-Tracing-Mechanismen zur Unterstützung dezentraler Planung und Regelung . In: DFG (Hrsg.) : Intelligente Softwareagenten und betriebswirtschaftliche Anwendungsszenarien (2. Kolloquium des ”SPP Agenten” Ilmenau 11/2000). 2000, S. 0. – Görz, Günther ; Bodendorf, Freimut ; Hofmann, O. ; Huber, Alexander ; Zimmermann, Roland: Agent-Based Tracking and Tracing for Controlling Fulfillment Processes in Supply Chains . In: Urban, Ch. (Hrsg.) : Proceedings 2nd Workshop on Agent-Based Simulation (2nd Workshop on Agent-Based Simulation Passau April 2-4, 2001). Ghent u.a. : SCS-Europe, 2001, S. 36-41. – ISBN 1-56555-215-6 300 – Görz, Günther ; Bodendorf, Freimut ; Huber, Alexander ; Butscher, Robert ; Zimmermann, Roland: Auftragsüberwachung in Supply-Chains mithilfe eines Multiagentensystems . In: DFG (Hrsg.) : Intelligente Softwareagenten und betriebswirtschaftliche Anwendungsszenarien (4. Kolloquium des SPP ”Agenten” Bonn 11/2001). 2001, S. 0. – Huber, Alexander ; Görz, Günther: Generisches Agentenmodell für deliberative Agenten . In: DFG (Hrsg.) : Intelligente Soft-wareagenten und betriebswirtschaftliche Anwendungsszenarien (3. Kolloquium SPP ”Agenten” Bremen 2001). 2001, S. 0. 13.5.3 ChuChu Projektleitung: Prof. Dr.-Ing. Günther Görz Beteiligte: Dr.-Ing. Bernd Ludwig Peter Reiß, M.A. Dipl.-Ing. Bernhard Schiemann Stichwörter: Dialogverarbeitung; Sprachverarbeitung; Raummikrophon; Spracherkennung; Benutzermodellierung; Assistenz Beginn: 1.1.2001 Kontakt: Dr.-Ing. Bernd Ludwig Tel.: +49 9131/85 29909 Fax: +49 9131/85 29905 E-Mail: [email protected] ChuChu ist ein internes Projekt des Lehrstuhls. Es dient als Labor- und Forschungsplattform für verschiedene Forschungsfragen auf dem Gebiet der natürlichsprachlichen Dialogsysteme: • Spracherkennnung • Raummikrophone in Dialogsystemen • Benutzermodellierung • Assistenzsysteme • Fehlerdiagnose 301 • Dialogführung • Dialogstruktur • Plannung • Textgenerierung Publikationen – Görz, Günther ; Bücher, Kerstin ; Forkl, Yves ; Klarner, Martin ; Ludwig, Bernd: Speech Dialogue Systems – A ”Pragmatics-First” Approach to Rational Interaction . In: Menzel, Wolfgang (Hrsg.) : Natural Language Processing between Linguistic Inquiry and System Engineering. Festschrift für Walther von Hahn. Hamburg : ., 2002. – Görz, Günther ; Huber, Alexander ; Ludwig, Bernd ; Reiß, Peter: Combining the Practical Syllogism and Planning in Dialogue . In: Kruijff-Korbayová, Ivana ; Kosny, Claudia (Hrsg.) : DiaBruck Proceedings: 7th Workshop on the Semantics and Pragmatics of Dialogue. (DiaBruck Proceedings: 7th Workshop on the Semantics and Pragmatics of Dialogue, Saarbrücken). 2003, S. 35-42. – Görz, Günther: CONALD: A Configurable Plan-Based Dialogue System .Vortrag: Natural Language and Speech Colloquium (NLaSp), Stanford University, Linguistics Department, School of Humanities and Sciences, 13.10..2004 13.5.4 CIDOC Conceptual Reference Model (CRM) – Eine formale Referenzontologie für die Dokumentation des Kulturerbes Projektleitung: Prof. Dr.-Ing. Günther Görz Beteiligte: Dipl.-Ing. Bernhard Schiemann Stichwörter: CIDOC CRM Referenzontologie Ontologie Dodots Beginn: 7.12.2004 Mitwirkende Institutionen: FORTH Institute of Computer Science, Heraklion, Kreta/Griechenland, u.a. Kontakt: Prof. Dr.-Ing. Günther Görz Tel.: 09131/85-28701 302 Fax: 09131/85-28986 E-Mail: [email protected] Das ”Conceptual Reference Model”’ der ICOM-CIDOC (International Committee for Documentation of the International Council of Museums) ist eine formale Referenzontologie für die Dokumentation, insbesondere im Bereich des Kulturerbes. Sie ist ein ISO-Standard (21127) und soll die Interoperabilität zwischen verschiedenen vorhandenen Datenbanken, vor allem bei Museen und Archiven, ermöglichen sowie den Entwurf neuer Anwendungen unterstützen. Wir sind in der ”CRM Special Interest Group” engagiert, die die Weiterentwicklung des Standards betreibt und Erweiterungen, u.a. auf das Bibliothekswesen (FRBR), erarbeitet. Ein wichtiges Projektthema in Erlangen ist die Implementation des CRM in der ”Web Ontology Language” OWL-DL und der Einsatz dieser Version in verschiedenen Anwendungen (u.a. im Projekt ”mappae”). Hierbei besteht auch eine Kooperation mit der IT-Abteilung des Germanischen Nationalmuseums Nürnberg. Publikationen – Görz, Günther: Kognitive Karten des Mittelalters . In: Houben, Hubert ; Vettere, Benedetto (Hrsg.) : Mobilità e Immobilità nel Medioevo europeo — Mobilität und Immobilität im europäischen Mittelalter (Seminario di studio dei Dottorati di ricerca di ambito medievistico delle Università di Lecce e di Erlangen Rom, Deutsches Historisches institut 01.-02.04.2004). Lecce : Congedo Editore, 2006, S. 7-28. – Görz, Günther: Kognitive Karten des Mittelalters. Digitale Erschließung mittelalterlicher Weltkarten . In: Burckhardt, Daniel ; Hohls, Rüdiger ; Prinz, Claudia (Hrsg.) : Geschichte im Netz: Praxis, Chancen, Visionen. Beiträge der Tagung .hist 2006, Berlin, 22.–24. Februar 2006 (.hist2006 — Geschichte im Netz Berlin 22.-24.02.2006). Berlin : HU Berlin, 2006, S. 1-34. (Historisches Forum Bd. 10, Nr. 1) – ISBN 978-3-86004-205-2 – Görz, Günther: ”Generics and Defaults”. Zum technischen Umgang mit Begriffssystemen, Standardannahmen und Ausnahmen . In: Peckhaus, Volker ; Bernhard, Peter (Hrsg.) : Methodisches Denken im Kontext. Festschrift für Christian Thiel zum 70. Geburtstag. Paderborn : mentis, 2007, S. 383-401. 13.5.5 Intelligente Textsuche für CE-Geräte mit eingeschränkter Rechen- und Speicherkapazität (INTCER) Projektleitung: 303 Dr.-Ing. Bernd Ludwig Beteiligte: Iman Thabet, M.A. Dipl.-Ing. Bernhard Schiemann Stichwörter: Sprachverarbeitung; Dialogsystem; Textgenerierung; Textmining; Klassifikation Laufzeit: 1.7.2004–31.3.2007 Förderer: Bayerisches Staatsministerium für Wirtschaft, Verkehr und Technologie Mitwirkende Institutionen: Loewe Opta GmbH Lehrstuhl für Mustererkennung Kontakt: Dr.-Ing. Bernd Ludwig Tel.: +49 9131/85 29909 Fax: +49 9131/85 29905 E-Mail: [email protected] Die Datenbestände von CE-Geräten (Consumer Electronic: Fernseher, Stereoanlagen) und die darin enthaltene Informationsmenge steigen kontinuierlich an. Neben den elektronisch verfügbaren und in die Geräte eingebauten Bedieninformationen werden weitere gesendete Informationen empfangen und in den Geräten gespeichert. Dazu gehören z.B. Teletext, TeleWeb und EPG-Daten (Electronic Program Guide). Ein Suchen in diesen Daten mit Hilfe von Fernbedienungen ist sehr aufwändig, kompliziert und nicht leicht handzuhaben. Tastaturunterstützungen werden sich deshalb durchsetzen. Sichtbar ist dieser Trend am Einzug von SMS-Eingabehilfen auf Fernbedienungen und Bluetooth-Tastaturen. Diese werden neben der Eingabe am PC auch zur Eingabe am Fernseher benutzt werden. Sinnvoll sind solche Eingabegeräte nur verwendbar, wenn auch intelligente Nutzerführungen im CE-Gerät zur Verfügung stehen, die die Anforderungswünsche adaptiv und unterstützend umsetzen. Ideal wäre hier eine Spracheingabe – deshalb ist die Spracherkennung mit Mikrophonarrays auch ein Thema im Projekt. Ein erster Schritt in diese Richtung ist die textbasierte Eingabe umgangssprachlicher Formulierungen zur natürlichsprachlichen Interaktion mit dem System. Publikationen – Ludwig, Bernd ; Mandl, Stefan ; von Mammen, Sebastian: What’s on tonight User-centered and Situation-aware Proposals for TV Programmes . In: Edmonds, 304 Ernest ; Riecken, Doug (Hrsg.) : Proceedings of IUI 2006 (International Conference on Intelligent User Interfaces 2006 Sydney 28.01.2006-01.02.2006). 2006, S. to appear. – Ludwig, Bernd ; Mandl, Stefan ; Schmidt, Sebastian: How Linguistic Resources May Help to Recommend TV Programmes . In: Oltramari, Alessandro (Hrsg.) : Proceedings of Ontolex 2006 (OntoLex 2006 Genova 27.05.2006). 2006, S. to appear. – Ludwig, Bernd ; Mandl, Stefan: How to Analyze Free Text Descriptions for Recommending TV Programmes? In: Brewka, Gerhard ; Coradeschi, Silva ; Perini, Anna ; Traverso, Paolo (Hrsg.) : Proceedings of the 17th European Conference on Artificial Intelligence (17th European Conference on Artificial Intelligence Riva 20.08.2006-01.09.2006). Amsterdam : IOS Press, 2006, S. 821-822. (Frontiers in Artificial Intelligence and Applications Bd. 141) 13.5.6 KDA – Knowledge Discovery Assistant Projektleitung: Prof. Dr. Herbert Stoyan Beteiligte: Dipl.-Inf. Oliver Hogl Stichwörter: Intelligentes Data Mining; Entdeckung von Wissen in Datenbanken; Natürlichsprachliche Benutzerschnittsteldots ; Interessantheit Beginn: 1.1.1997 Der KDA ist ein wissensbasiertes Assistenzsystem zur Entdeckung interessanter Aussagen in großen Datenbeständen. Die bestehenden Komponenten wurden im Berichtszeitraum in einem Gesamtsystem mit Client/Server-Architektur integriert. Die grafische Benutzeroberfläche wurde reimplementiert und in ihrer Funktionalität erweitert. Darüber hinaus wurden Komponenten für die Generierung von hochstrukturierten Berichten in den Formaten HTML und RTF entwickelt. Im Rahmen einer Diplomarbeit entstand eine Komponente zur Abbildung von Fragen in der Sprache des Endbenutzers auf Data-Mining-Anfragen. Das System wurde in Studien mit dem Qualitätsmanagement der Tiroler Landeskrankenanstalten Ges.m.b.H. (TILAK) getestet. 305 Publikationen – Müller, Michael: Interessantheit bei der Entdeckung von Wissen in Datenbanken . In: Künstliche Intelligenz (1999), Nr. 3, S. 40-42 – Stühlinger, W. ; Hogl, Oliver ; Stoyan, Herbert ; Müller, Michael: Intelligent Data Mining for Medical Quality Management . In: Lavrac, N. ; Miksch, S. (Hrsg.) : The Fifth Workshop on Intelligent Data Analysis in Medicine and Pharmacology (IDAMAP-2000), Workshop Notes of the 14th EuropeanConference on Artificial Intelligence (ECAI-2000 Berlin 2000). 2000, S. 55-57. – Hogl, Oliver ; Stoyan, Herbert ; Müller, Michael: The Knowledge Discovery Assistant: Making Data Mining Available for Business Users . In: Grunopulos, D. ; Rastogi, R. (Hrsg.) : Proceedings of the 2000 ACM SIGMOD Workshop on Research Issues in Data Mining and Knowledge Discovery (DMKD-2000 Dallas (Texas) 2000). 2000, S. 96-105. – Hogl, Oliver ; Müller, Michael ; Stoyan, Herbert ; Stühlinger, W.: On Supporting Medical Quality with Intelligent Data Mining . In: n/a (Hrsg.) : Proceedings of the Hawaii International Conference on System Sciences (Hawaii International Conference on System Sciences Maui (Hawaii) 03.06.2001). 2001, S. n/a. – Hogl, Oliver ; Müller, Michael ; Stoyan, Herbert ; Stühlinger, W.: Using Questions and Interests to Guide Data Mining for Medical Quality Management . In: Topics in Health Information Management (2001), Nr. August, S. 36-50 13.5.7 mappae: Kognitive Karten des Mittelalters Projektleitung: Prof. Dr.-Ing. Günther Görz Prof. Dr. Hartmut Kugler Stichwörter: Kartographiegeschichte, Mittelalter, Digitalisierung Beginn: 1.1.2001 Kontakt: Prof. Dr.-Ing. Günther Görz Tel.: 09131/85-28701 Fax: 09131/85-28986 E-Mail: [email protected] Die kosmographische und universalgeographische Überlieferung des Spätmittelalters 306 (13.-16. Jh.) zielt auf Orientierung im Sinne einer ’Weltanschauung’. Die Mappaemundi, eine Frucht der christlichen Enzyklopädik, sind in erster Linie kognitive Karten. Ihre graphischen Muster und ihre Text-Bild-Kombinationen enthalten Paramenter der Ars memorativa und scholastischer Summenwerke, auch visualisieren sie die Handlungsräume narrativ dargestellter Geschichte und Geschichten. Sie bleiben nicht unverändert, sondern variieren je nach Wissensstand und Interessenbildung, verändern sich auch im Wissenstransfer, besonders signifikant im Aufeinandertreffen christlichmittelalterlicher und arabisch-jüdischer Konventionen des Kartographierens. Der Bestand und das Veränderungspotential des Text-Bild-Materials konnte bislang nicht zureichend erfasst werden. Das ist erst mit der elektronischen Datenverarbeitung möglich geworden. Ziel des Vorhabens ist der Aufbau einer multimedialen Datenbank, die repräsentative mittelalterliche und frühneuzeitliche Weltkarten zusammenfasst und als Grundlage für die Ausarbeitung der dargestellten kognitiven Beziehungen und deren Wandel dient. Im Kern besteht sie aus hochauflösenden digitalen Bildern, die durch zugeordnete Metadaten erschlossen sind, sowie einem vergleichenden Stellenkatalog. Er umfasst alle Positionen, die auf den Mappaemundi des 13.- 16. Jhs. (von der Hereford- und Ebstorfkarte bis zum Behaim-Globus) mit Bildern, Legenden und BildTextkombinationen verzeichnet sind. Über den Stellenkatalog soll dann eine kognitiv orientierte Beschreibungsebene eingerichtet werden, in der Objektbeschreibungen unter Beachtung der diachronen Dimension verknüpft werden können. Publikationen – Görz, Günther ; Holst, Norbert: The Digital Behaim Globe (1492) . In: Bearman, David ; Trant, Jennifer (Hrsg.) : Museum Interactive Multimedia 1997: Cultural Heritage Systems – Design and Interfaces. Selected Papers from ICHIM 97 (Fourth International Conference on Hypermedia and Interactivity in Museums Paris 1997). Pittsburgh, Penn. : Archive & Museum Informatics, 1997, S. 157173. – Görz, Günther: Kognitive Karten des Mittelalters. Digitale Erschließung mittelalterlicher Weltkarten . In: Burckhardt, Daniel ; Hohls, Rüdiger ; Prinz, Claudia (Hrsg.) : Geschichte im Netz: Praxis, Chancen, Visionen. Beiträge der Tagung .hist 2006, Berlin, 22.–24. Februar 2006 (.hist2006 — Geschichte im Netz Berlin 22.-24.02.2006). Berlin : HU Berlin, 2006, S. 1-34. (Historisches Forum Bd. 10, Nr. 1) – ISBN 978-3-86004-205-2 – Görz, Günther: Kognitive Karten des Mittelalters . In: Houben, Hubert ; Vettere, Benedetto (Hrsg.) : Mobilità e Immobilità nel Medioevo europeo — Mobilität und Immobilität im europäischen Mittelalter (Seminario di studio dei Dottorati di ricerca di ambito medievistico delle Università di Lecce e di Erlangen Rom, 307 Deutsches Historisches institut 01.-02.04.2004). Lecce : Congedo Editore, 2006, S. 7-28. – Görz, Günther: ”Generics and Defaults”. Zum technischen Umgang mit Begriffssystemen, Standardannahmen und Ausnahmen . In: Peckhaus, Volker ; Bernhard, Peter (Hrsg.) : Methodisches Denken im Kontext. Festschrift für Christian Thiel zum 70. Geburtstag. Paderborn : mentis, 2007, S. 383-401. – Görz, Günther: Altes Wissen und neue Technik. Zum Behaim-Globus und seiner digitalen Erschließung . In: Norica. Berichte und Themen aus dem Stadtarchiv Nürnberg (2007), Nr. 3, S. 78-87 – Görz, Günther: Martin Behaim . In: Hockey, Thomas (Hrsg.) : The Biographical Encyclopedia of Astronomers, 2 Vols.. Berlin; Heidelberg : Springer, 2007, S. 1-2. – Baumgärtner, Ingrid ; Görz, Günther: Rezension von: Klaudios Ptolemaios, Handbuch der Geographie. Hg. Stückelberger, Alfred; Grasshoff, Bernd. Bern, 2006. . In: Historische Zeitschrift (2007), Nr. 10, S. 1-2 13.5.8 MONA – Mobile Navigation mit öffentlichen Verkehrsmitteln Projektleitung: Dr.-Ing. Bernd Ludwig Prof. Dr.-Ing. Günther Görz Beteiligte: Schwab, Tobias Schmidt, Christian Stichwörter: Navigation; Handy; Mogil-Telefon; öffentlicher Nahverkehr; Fußgänger Beginn: 1.10.2006 Kontakt: Dr.-Ing. Bernd Ludwig Tel.: +49 9131/85 29909 Fax: +49 9131/85 29905 E-Mail: [email protected] MONA unterstützt Fahrgäste bei der Verwendung von öffentlichen Verkehrsmitteln: MONA ermittelt die bestmögliche Verkehrsverbindung und begleitet Fahrgäste ihn bei der kompletten Fahrt. MONA zeigt Fußgängern den Weg zu Haltestellen und stellt Informationen über die zu benutzenden Verkehrsmittel und Umsteigevorgänge. Dabei sollen dem Fahrgast möglichst viele Aufgaben abgenommen werden. Er oder sie 308 muss lediglich den gewünschten Zielpunkt auswählen und wird danach automatisch zur am besten geeigneten Starthaltestelle geführt. Die Anwendung übernimmt dabei sowohl die Bestimmung der aktuellen Position als auch die Bewertung und Sortierung der möglichen Verbindungen. Außerdem reagiert sie automatisch auf Verspätungen und ermittelt wenn nötig eine alternative Verbindung. 13.5.9 ProfiL: Ein Produktionssystem für interaktive Lernsoftware Projektleitung: Prof. Dr. Herbert Stoyan Beteiligte: Dipl.-Inf. Bernd Gaede Stichwörter: courseware generator; design; XML; Java Beginn: 1.6.1998 learning objects; automating instructional Das Projekt ProfiL hat die Entwicklung effizienter Werkzeuge zum Ziel, mit denen didaktisch konzipierte Courseware schnell und mit geringen Kosten von Lehrpersonal einer Domäne entwickelt werden kann. Zum Einsatz kommen dabei die XML-Sprache IMDL (Instructional Material Description Language) für die Spezifikation von Lernmaterialien und ein Generator für Java-Courseware. Im Projekt wird versucht, Einflußgrößen auf und Gestaltungsparameter von Lernsoftware zu identifizieren, zu analysieren und zu zeigen, wie diese mit IMDL formuliert werden können. Die Beschreibung der Einflußgrößen im Sinne unabhängiger Variablen erfolgt feingranular, kann aber durch Spracherweiterungen synthetisiert werden. Gestaltungsparameter werden in analoger Weise beschrieben. Eine einfache Regelsprache dient zur Explizierung der entsprechenden Abhängigkeiten zwischen Einflußgrößen und Gestaltungsparametern. Die Aggregation von Regeln expliziert dann lerntheoretische und mediendidaktische Aspekte als präskriptive Gestaltungsanweisungen und macht diese im Sinne einer Validierung überprüfbar. Durch die Anwendung solcher Regelmengen auf IMDL-Basisspezifikationen durch den ProfiL-Interpreter entstehen vollständige Lernsoftwarespezifikationen. Diese werden durch den ProfiL-Generator in Java-Lernsoftware überführt. Publikationen – Gaede, Bernd ; Schneeberger, Josef: ”Generierung multimedialer Produktpräsentationen” . In: WIRTSCHAFTSINFORMATIK 40 (1998), Nr. 1 309 – Gaede, Bernd: ”Profil: Production of interactive educational material” . In: (Hrsg.) : Proceedings of the 7th BOBCATSSS Symposium (”Learning Society, Learning Organisation, Lifelong Learning ” Bratislava Januar 1999). 1999, S. -. – Gaede, Bernd: ”Courseware and User Interfaces Crossing Cultural Borders” . In: (Hrsg.) : Proceedings of the 8th BOBCATSSS Symposium (”Access 2000 – intellectual property vs. the right to knowledge” Krakau Januar 2000). 2000, S. -. – Gaede, Bernd: ”Die Instructional Material Description Language und das Produktionssystem für interaktive Lernsoftware ProfiL – Eine Metaspezifikationssprache und ein Generator für Lernsoftware” . In: GI-Fachgruppe 1.1.5/7.0.1 (Veranst.) : Tagungsbeitrag zum 10. Arbeitstreffen der GI-Fachgruppe 1.1.5/7.0.1 (”Intelligente Lehr-/Lernsysteme” Hamburg 1./2. Dezember 2000). 2000, S. -. – Gaede, Bernd: ”Konventionalisierung multimedialer Softwaregestaltung durch Automatisierung” . In: Jakobs, Eva-Maria ; Knorr, Dagmar (Hrsg.) : Tagungsband des PROWITEC-Kolloquiums in der Reihe: ”Textproduktion und Medium”. (”Textproduzieren in elektronischen Medien – Strategien und Kompetenzen” Wien 2000). 2001, S. -. 13.5.10 SigmaStar Projektleitung: Prof. Dr. Bettina Harriehausen-Mühlbauer Beteiligte: Dr.-Ing. Bernd Ludwig Stichwörter: Sprachverarbeitung; Dialogsystem; Textgenerierung; Klassifikation Laufzeit: 1.5.2005–30.4.2006 Förderer: Zentrum für Forschung und Entwicklung der FH Darmstadt Mitwirkende Institutionen: Fachhochschule Darmstadt Kontakt: Dr.-Ing. Bernd Ludwig Tel.: +49 9131/85 29909 Fax: +49 9131/85 29905 E-Mail: [email protected] Textmining; Sigma Star befasst sich mit der Integration von Sprachverarbeitungsalgorithmen 310 und e-learning-Anwendungen. Im ersten Abschnitt des Projekts wird ein Spiel zum Vokabellernen auf einem Java-fähigen Handy entwickelt. Während des Spiels geht es darum, immer wieder ins Spielgeschehen eingebettete Vokabeltests zu bestehen, um schließlich das Spiel gewinnen zu können. Die Vokabeltests sind sehr komplex und nutzen die Möglichkeiten voll aus, die von einer automatischen morphologischen Formenanalyse und einem digitalen Thesaurus geboten werden. Publikationen – Ott, Heike ; Prados, Francisco ; Ludwig, Bernd ; Harriehausen-Mühlbauer, Bettina: Language e-Learning with role-based mobile phone games . In: Jantke, Klaus P. (Hrsg.) : LIT 2005 – 13. Leipziger Informatik-Tage (Lepiziger Informatik-Tage 2005 Leipzig 21.-23.9.2005). Leipzig : Springer, 2005, S. 12-18. (GI-Lecture Notes in Informatics) – Harriehausen-Mühlbauer, Bettina ; Prados, Francisco ; Ludwig, Bernd ; Ott Heike: Mobile Phone Games for Language e-Learning . In: Sosnin, P. (Hrsg.) : Interactive Systems And Technologies – The Problems of Human – Computer Interaction (Interactive Systems And Technologies – The Problems of Human – Computer Interaction Ulyanovsk 2005). 2005, S. 154-158. – ISBN 5-89146-670-8 13.5.11 SIPaDIM 2 (Forschungsverbund FORSIP: Verbundprojekt Adaptives Dialogmanagement) Projektleitung: Prof. Dr.-Ing. Günther Görz Beteiligte: Peter Reiß, M.A. Dr.-Ing. Bernd Ludwig Stichwörter: Dialogmanagement;Assistenz;Benutzerführudots Laufzeit: 1.6.2002–31.8.2007 Förderer: Bayerisches Staatsministerium für Wissenschaft, Forschung und Kunst Mitwirkende Institutionen: Lehrstuhl für Künstliche Intelligenz SIPaDIM 2 (Dialogassistenz): Bei der Bedienung eines technischen Geräts mit Hilfe eines Dialogsystems kann es zu Miss©verständnissen kommen, solange die 311 Fähigkeiten des Menschen mit seinem Weltwissen und seiner sprachlichen und kognitiven Kompetenz vom Computer nicht erreicht sind. Es klafft eine Lücke zwischen dem, was der menschliche Benutzer als sinnvolle Eingabe ansieht und dem, was das System zu interpretieren (Dialogebene) und zu leisten (Systemebene) imstande ist. Als Lösungsansatz für diese Problematik bietet sich also an, das System selbst zum Gegenstand des Dialogs zu machen und mittels geeigneter Schnittstellen Informationen über die Eigenschaften und Fähigkeiten bereitzustellen. Der vorhandene SIPaDIMDialogmanager eignet sich durch seine Konfigurierbarkeit für diesen Ansatz. Da eine Eingabe auf verschiedenen Ebenen analysiert und verarbeitet wird, ist es nötig, eine generische Repräsentationsweise für die Fähigkeiten der beteiligten Module zu entwickeln. Ebenso muss eine geeignete Schnittstellendefinition erfolgen, so dass die Abfrage mittels genormter Nachrichten geschehen kann. Die Anwendungsgebiete für ein solches neuartiges System sind vielfältig. Zum einen bietet es wegen der Introspektionsfähigkeiten bei allen bisherigen Dialogsystem-Anwendungen einen deutlichen Komfortgewinn für den Benutzer. Zum anderen ist es durch Integration der angesteuerte Applikation in diese Architektur möglich, Beratungs- und Bediendialoge zu füh©ren, wie sie mit derzeitigen Systemen nicht möglich sind. SIPaDIM (erste Förderphase): Im Rahmen des Forschungsverbunds soll ein Dialogsystem für gesprochene natürliche Sprache weiterentwickelt werden, das in Hinblick auf die Komplexität der verarbeitbaren Dialoge und der Benutzermodellierung über den Stand heutiger Systeme hinausreicht. Hierbei soll das Dialogsystem die Funktion eines Moderators einnehmen, das die Kommunikation zwischen Benutzer und Technik, z.B. einem technischen Gerät, koordiniert. Wissenschaftliche Ziele der Untersuchungen sind: Der Schwerpunkt der Forschungsarbeit liegt in der Situierung der Dialogführung. Damit ist die Frage gemeint, wie man das benötigte Hintergrundwissen für eine Applikation konfigurieren kann, damit das Dialogsystem in einer konkreten Situation den Informationsaustausch zwischen dem Benutzer und dem technischen System moderieren kann? Das Thema der Individualisierung spielt eine wichtige Rolle bei der Frage, wie sich das Kommunikationsverhalten des Systems beschreiben lässt, so dass die Dialogführung an unterschiedliche, stereotype Benutzerrollen adaptiert werden kann. Parallel dazu geht es um Personalisierung: Wie lässt sich das Dialogsystem durch Einbezug von Benutzermodellen so steuern, dass die Anpassung des technischen Systems an individuelle Benutzer situationsbezogen möglich wird? Publikationen – Görz, Günther ; Bücher, Kerstin ; Ludwig, Bernd ; Schweinberger, Frank-Peter ; Thabet, Iman: Combining a Lexical Taxonomy with Domain Ontologies in the Erlangen Dialogue System . In: Smith, Barry (Hrsg.) : KI – 2003 Workshop 11 – Reference Ontologies vs. Applications Ontologies, Proceedings. (KI – 2003 Work312 shop 11 – Reference Ontologies vs. Applications Ontologies, Hamburg). 2003, S. -. – Görz, Günther ; Huber, Alexander ; Ludwig, Bernd ; Reiß, Peter: Combining the Practical Syllogism and Planning in Dialogue . In: Kruijff-Korbayová, Ivana ; Kosny, Claudia (Hrsg.) : DiaBruck Proceedings: 7th Workshop on the Semantics and Pragmatics of Dialogue. (DiaBruck Proceedings: 7th Workshop on the Semantics and Pragmatics of Dialogue, Saarbrücken). 2003, S. 35-42. – Görz, Günther: Speech Dialogue Systems – A Pragmatics-Guided Approach to Rational Interaction . In: Milutinovic, Veljko (Hrsg.) : Proceedings of the IPSI 2003 Conference. (IPSI – 2003 Conference, Montenegro). 2003, S. -. – Thabet, Iman ; Ludwig, Bernd ; Schweinberger, Frank-Peter ; Bücher, Kerstin ; Görz, Günther: Using EuroWordNet within the Speech Operated System EMBASSI . In: Kunze, Claudia (Hrsg.) : Proceedings of the GermaNet Workshop: Anwendungen des deutschen Wortnetzes in Theorie und Praxis (GermaNet Workshop: Anwendungen des deutschen Wortnetzes in Theorie und Praxis Tübingen). 2003, S. -. – Ludwig, Bernd: Natürlichsprachliche Bedienung technischer Geräte . In: Wagner, Dorothea ; Dreier, Thomas ; Günther, Oliver ; Hölldobler, Steffen ; Löhr, KlausPeter ; Molitor, Paul ; Reischuk, Rüdiger ; Saupe, Dietmar (Hrsg.) : Ausgezeichnete Informatikdissertationen 2004. Bonn : GI-Verlag, 2005, (Lecture Notes in Informatics), S. 105-114. – ISBN 3-88579-409-8 – Ludwig, Bernd ; Mandl, Stefan ; Schmidt, Sebastian: How Linguistic Resources May Help to Recommend TV Programmes . In: Oltramari, Alessandro (Hrsg.) : Proceedings of Ontolex 2006 (OntoLex 2006 Genova 27.05.2006). 2006, S. to appear. – Ludwig, Bernd ; Mandl, Stefan ; von Mammen, Sebastian: What’s on tonight User-centered and Situation-aware Proposals for TV Programmes . In: Edmonds, Ernest ; Riecken, Doug (Hrsg.) : Proceedings of IUI 2006 (International Conference on Intelligent User Interfaces 2006 Sydney 28.01.2006-01.02.2006). 2006, S. to appear. – Döring, Sven ; Ludwig, Bernd: Personalisierung und Situierung in der MenschMaschine-Interaktion . In: KI – Künstliche Intelligenz (2005), Nr. 3, S. 35-27 – Reiß, Peter ; Ludwig, Bernd ; Görz, Günther: Selbstreflexion in einem planbasierten Dialogsystem . In: Cremers, Armin B. ; Manthey, Rainer ; Martini, Peter ; Steinhage, Volker (Hrsg.) : Lecture Notes in Informatics P67 (35. Jahrestagung 313 der Gesellschaft für Informatik Bonn 19.-22.09.2005). Bd. P67. 2005, S. 256-260. – ISBN 3-88579-396-2 – Görz, Günther ; Ludwig, Bernd: Speech Dialogue Systems – A PragmaticsGuided Approach to Rational Interaction . In: KI – Künstliche Intelligenz (2005), Nr. 3, S. 5-10 – Ludwig, Bernd ; Mandl, Stefan ; Reiß, Peter ; Görz, Günther ; Stoyan, Herbert: Natürlichsprachliche Bedienung technischer Systeme . In: Hochberger, Christian ; Liskowsky, Rüdiger (Hrsg.) : Informatik 2006. Informatik für Menschen. (Informatik 2006. Informatik für Menschen. Beiträge der 36. Jahrestagung der Gesellschaft für Informatik Dresden 02.-06.10.2006). Bd. 2. Bonn : Gesellschaft für Informatik e.V., 2006, S. 146-153. (Lecture Notes in Informatics (LNI) — Proceedings Bd. P94) – Bertz, Thomas ; Reiß, Peter: Plan-based Assistance in the Webbrowser Firefox . In: Devedic, Vladan (Veranst.) : Proceedings of AIA 2007 (The IASTED International Conference on Artificial Intelligence and Applications Innsbruck 12.14.02.2007). Zürich, Schweiz : ACTA Press, 2007, S. 622-624. – ISBN 978-088986-629-4 – Reiß, Peter ; Görz, Günther: SIPaDIM – Assistenz durch selbstbeschreibende Software . In: Koschke, Rainer ; Herzog, Otthein ; Rödiger, Karl-Heinz ; Ronthaler, Marc (Hrsg.) : Lecture Notes in Informatics P-109 (37. Jahrestagung der Gesellschaft für Informatik Bremen 24.-27.09.2007). Bd. P-109. Bonn : Köllen, 2007, S. 279-282. – ISBN 978-3-88579-203-1 – Ludwig, Bernd ; Reiß, Peter ; Görz, Günther: CONALD: The Configurable PlanBased Dialogue System . In: Keith, Bernard, et. al. (Hrsg.) : 2006 IAR Annual Meeting. Deutsch-Französisches Institut für Automation und Robotik (2006 IAR Annual Meeting. Deutsch-Französisches Institut für Automation und Robotik Nancy 16.-17. Nov. 2006). Nancy : IAR, CD-ROM, 2006, S. 4 pp.. 13.5.12 Sprachverarbeitung und Dialogsysteme Projektleitung: Prof. Dr.-Ing. Günther Görz Beteiligte: Iman Thabet, M.A. Dr.-Ing. Martin Klarner Peter Reiß, M.A. Yuliya Lierler, M.S. 314 Dr.-Ing. Bernd Ludwig Dr. Sibylle Reichel Stichwörter: Sprachverarbeitung; Parsing; Semantikkonstruktion; Pragmatik; Inferenz; Dialog Beginn: 1.4.1991 Kontakt: Prof. Dr.-Ing. Günther Görz Tel.: 09131/85-28701 Fax: 09131/85-28986 E-Mail: [email protected] Einen Schwerpunkt der Grundlagenforschung bilden die Arbeiten in der Sprachverarbeitung, die mit einer aktuellen Fokussierung auf Dialogsysteme in enger Kooperation mit dem Lehrstuhl für Mustererkennung (früher: FORWISS22 , FG Wissensverarbeitung23 ) durchgeführt werden (weitere Informationen24 erlangen.de/IMMD8/staff/Goerz/dialog.html ). Derzeit wird an der Modellierung von Diskurs- und Domänenwissen für verschiedene Anwendungen mithilfe der Beschreibungslogik gearbeitet sowie an Problemen der Benutzerzielverwaltung und Planung auf der Dialog- und Anwendungsebene. Daraus resultieren Ressourcen und Komponenten für Dialogsysteme, insbesondere Beiträge zu einem konfigurierbaren Dialogmanager, die u.a. auch in industrienahen Kooperationsprojekten wie EMBASSI25 (s.d.) eingesetzt werden. Bei der grammatischen Analyse wird ein ”Chunk”-Parsing-Ansatz verfolgt, der darauf zielt, minimale Konstituenten in einer Spracheingabe zu identifizieren, welche semantische Einheiten bilden. Ein solches Vorgehen erweist sich wegen der Unvollständigkeit und ungrammatischen Struktur spontansprachlicher Äußerungen und aus der durch die Spracherkennung bedingten Mehrdeutigkeit als vielversprechend. Zur Chunkanalyse wird ein Chartparser verwendet, der durch Verwendung einer speziellen Grammatik Chunks liefert. Diese neu entwickelte Grammatik, die auch von der in Entwicklung befindlichen Komponente zur Sprachgenerierung verwendet wird, enthält Regeln zur Komposition von lexikalischen Elementen und Konstituenten zu Chunks. Mithilfe der grammatischen Funktionen (Dependenz) werden die Chunks bis hinauf zur Satzebene miteinander verbunden. In dieser zweiten Analysephase wird dann unter Zuhilfenahme semantischer Angaben (Valenzen, thematische Rollen) versucht, die diskurs-semantische Re22 URL: http://www.forwiss.de http://www.forwiss.uni-erlangen.de/fg-we/ 24 URL: http://www8.informatik.uni25 URL: http://www.embassi.de 23 URL: 315 präsentation eines natürlich-sprachlichen Dialogschritts zu konstruieren. Die Implementation der dabei erforderlichen Zugriffe auf das Domänenmodell ist realisiert; die Abbildung der linguistischen Konzepte auf Konzepte der Applikationsebene sind Gegenstand kontinuierlicher Erweiterungen. Ein weiterer Gegenstand der aktuellen Projektarbeit ist das Grundformenlexikon, das gleichermaßen für Analyse und Generierung verwendet wird. Aus der online verfügbaren lexikalischen Datenbank GermaNet werden für das Lexikon Wortsemantik und syntaktische Informationen (Kasusrahmen) extrahiert. Zusätzlich werden aber auch morphologische Informationen (Flexion, Derivation und Komposition) benötigt, die eine morphologische Komponente bereitstellt. Die Lexikoneinträge müssen um weitere semantische Angaben (Valenzen, thematische Rollen) ergänzt werden, wofür ein eigenes Werkzeug bereitsteht. Publikationen – Ludwig, Bernd ; Görz, Günther ; Niemann, Heinrich: Combining Expression and Content in Domains for Dialog Managers. . In: – (Hrsg.) : Proceedings of the International Description Logics Workshop DL-98 (- Trento 6.-8.6.1998). 1998, S. -. – Ludwig, Bernd ; Görz, Günther ; Niemann, Heinrich: User Models, Dialog Structure, and Intentions in Spoken Dialog. . In: – (Hrsg.) : Proceedings of KONVENS98 (- Bonn 5-7.10.1998). 1998, S. -. – Ludwig, Bernd ; Görz, Günther ; Niemann, Heinrich: A Computational Approach to the Semantics of Function Words in Dialogue Context. . In: – (Hrsg.) : Proceedings of VexTAL ((Venezia per il Trattamento Automatico delle Lingue) – Nov. 1999). 1999, S. -. – Ludwig, Bernd ; Klarner, Martin ; Görz, Günther: Content and Context in Dialogue Systems. . In: – (Hrsg.) : Proceedings of the 3rd Bellagio Workshop on Human-Computer Conversation (Bellagio, 2000 Sheffield). 2000, S. -. – Ludwig, Bernd ; Görz, Günther ; Niemann, Heinrich: An Inference-Based Approach to the Interpretation of Discourse. . In: —– (Hrsg.) : Journal of Language and Computation, Special Issue (First Workshop on Inference in Computational Semantics, ICoS-1, Amsterdam 15.8.1999). Bd. 2. 2000, S. 241-258. – Bücher, Kerstin ; Forkl, Yves ; Görz, Günther ; Klarner, Martin ; Ludwig, Bernd: Discourse and Application Modeling for Dialogue Systems . In: Haarslev, V. ; Möller, R. ; Lutz, C. ; Görz, Günther (Hrsg.) : Proceedings KI-2001 Workshop 316 on Applications of Description Logics (KI-2001 Workshop on Applications of Description Logics Wien 18.9.2001). Aachen : Sunsite, 2001, S. 1-10. (CEUR Proceedings Bd. 44) – Görz, Günther ; Bücher, Kerstin ; Ludwig, Bernd ; Schweinberger, Frank-Peter ; Thabet, Iman: Combining a Lexical Taxonomy with Domain Ontologies in the Erlangen Dialogue System . In: Smith, Barry (Hrsg.) : KI – 2003 Workshop 11 – Reference Ontologies vs. Applications Ontologies, Proceedings. (KI – 2003 Workshop 11 – Reference Ontologies vs. Applications Ontologies, Hamburg). 2003, S. -. – Görz, Günther ; Huber, Alexander ; Ludwig, Bernd ; Reiß, Peter: Combining the Practical Syllogism and Planning in Dialogue . In: Kruijff-Korbayová, Ivana ; Kosny, Claudia (Hrsg.) : DiaBruck Proceedings: 7th Workshop on the Semantics and Pragmatics of Dialogue. (DiaBruck Proceedings: 7th Workshop on the Semantics and Pragmatics of Dialogue, Saarbrücken). 2003, S. 35-42. – Görz, Günther: Speech Dialogue Systems – A Pragmatics-Guided Approach to Rational Interaction . In: Milutinovic, Veljko (Hrsg.) : Proceedings of the IPSI 2003 Conference. (IPSI – 2003 Conference, Montenegro). 2003, S. -. – Görz, Günther: Sprachdialogsysteme – nach der pragmatischen Wende . In: Willée, G. ; Schröder, B. ; Schmitz, H.-C. (Hrsg.) : Computerlinguistik Was geht, was kommt? Festschrift für Winfried Lenders. St. Augustin : Gardez! Verlag, 2003, (Sprachwissenschaft, Computerlinguistik und Neue Medien Bd. 4), S. 87-94. – Lierler, Yuliya ; Görz, Günther: Model Generation for Generalized Quantifiers via Answer Set Programming . In: Butt, Miriam (Hrsg.) : KONVENS 2006. Proceedings der 8. Konferenz zur Verarbeitung natürlicher Sprache (KONVENS 2006 Konstanz 04.-07.10.2006). Konstanz : Deutsche Gesellschaft für Sprachwissenschaft, 2006, S. 101-106. – Ludwig, Bernd ; Mandl, Stefan ; Reiß, Peter ; Görz, Günther ; Stoyan, Herbert: Natürlichsprachliche Bedienung technischer Systeme . In: Hochberger, Christian ; Liskowsky, Rüdiger (Hrsg.) : Informatik 2006. Informatik für Menschen. (Informatik 2006. Informatik für Menschen. Beiträge der 36. Jahrestagung der Gesellschaft für Informatik Dresden 02.-06.10.2006). Bd. 2. Bonn : Gesellschaft für Informatik e.V., 2006, S. 146-153. (Lecture Notes in Informatics (LNI) — Proceedings Bd. P94) – Lierler, Yuliya: Disjunctive Answer Set Programming via Satisfiability . In: 3rd Intl. Workshop on Answer Set Programming: Advances in Theory and Implementation. Bath : University of Bath, 2005, S. 85-101. 317 – Görz, Günther ; Hornegger, Joachim: Sprach- und Bilderkennung . In: Bruns, Kai ; Meyer-Wegener, Klaus (Hrsg.) : Taschenbuch der Medieninformatik. 1. Aufl. Leipzig : Fachbuchverlag Leipzig im Carl Hanser Verlag, 2005, S. 194–219. ISBN 3-446-40299-3 – Reiß, Peter ; Görz, Günther: SIPaDIM – Assistenz durch selbstbeschreibende Software . In: Koschke, Rainer ; Herzog, Otthein ; Rödiger, Karl-Heinz ; Ronthaler, Marc (Hrsg.) : Lecture Notes in Informatics P-109 (37. Jahrestagung der Gesellschaft für Informatik Bremen 24.-27.09.2007). Bd. P-109. Bonn : Köllen, 2007, S. 279-282. – ISBN 978-3-88579-203-1 13.5.13 Wappen-Projekt Projektleitung: Prof. Dr. Herbert Stoyan Beginn: 1.6.1998 Ziel des Wappen-Projektes ist eine formale Beschreibung aller europäischen historischen Wappen. Die Wappenbeschreibungsprache soll es ermöglichen sowohl nach einem Wappen zu suchen, als auch dieses mit Hilfe eines Wappengenerators graphisch darzustellen. Bisher wurden etwa 300.000 Personen mit Quelleneingaben erfasst. Im Teilbestand der Siebmacherschen Wappen (ca. 120000 Personen) wurden Dubletten gesucht und eliminiert. Die Wappenbeschreibungssprache wurde weiterentwickelt. Die Zahl natürlichsprachlich erfasster Blasonierungen ist auf etwa 60000 angewachsen. Das Parsing und die semantische Analyse von natürlichsprachlichen Blasonierungen wurde für das Deutsche vorangetrieben. Der Chart-Parser wurde effizient (in PROLOG) reimplementiert. Ein Visualisierungs-Tool zur adäquaten Darstellung der Chart für das Debugging der Gramatik wurde implementiert. Das syntaktische Lexikon wurde auf ca. 10000 Wörter (entspricht ca. 50000 Wortformen) erweitert und deckt den Großteil der erfassten Blasonierungen ab. Der Aufbau eines semantischen Lexikons von Wappenbestandteilen wurde begonnen. Das Scannen und Speichern der Wappen im Siebmacher ist so gut wie abgeschlossen. Die Arbeiten werden in Kooperation mit einem ABM-Projekt des Vereins Herold durchgeführt, an dem 8 Personen beteiligt sind. 13.5.14 WebLib Projektleitung: Prof. Dr. Herbert Stoyan Beginn: 1.7.1995 318 Das Projekt zur Erfassung von historischem Quellenmaterial wurde weitergeführt. Bisher wurden ca. 500 Quellen mit insgesamt etwa 190000 Seiten gescannt. Der elektronische Familien-Index wurde auf ca. 120 Quellen ausgeweitet. 13.5.15 WW-Person Projektleitung: Prof. Dr. Herbert Stoyan Stichwörter: Adel, Digitale Bibliothek, Datenbank, Personen, Europa Beginn: 1.9.1994 Das Informationssystem zum europäischen höheren Adel ist inzwischen auf 400000 Personen angewachsen. Im Dezember wurde die 5.Auflage der CD produziert. Die Internetpräsentation wurde verschiedentlich als hervorragendes Angebot ausgezeichnet. Kopien der CD gehen in alle Welt. Es wurde ein Buchgenerierungsprogramm entwickelt, mit dem Auszüge aus dem System im Stile der gängige Jahrbücher erzeugt werden können. Es ist geplant, auf diese Art in Zukunft das ,,Handbuch des in Bayern immatrikulierten Adels” herzustellen. Desweiteren wird in Zusammenarbeit mit der Cronberg-Stiftung das ,,Handbuch der Ganerbschaft Alten-Limpurg” aktualisiert generiert. 13.6 Publikationen – Görz, Günther: Dialogische Logik und mathematischer Unterrichtsdiskurs . In: Löffladt, Günter (Hrsg.) : Mathematik -Logik – Philosophie. Ideen und ihre Wechselwirkungen (Internationales Leibniz-Symposium 2005, Altdorf-Nürnberg Altdorf 30.6.-2.7.2005). Frankfurt : Harri Deutsch, 2007, S. 1-23. (im Druck) – Mandl, Stefan ; Ludwig, Bernd: Coping with Unconsidered Context of Formalized Knowledge . In: Kokinov, B. et al. (Hrsg.) : LNAI 4635 (CONTEXT 2007 Roskilde University 20-24 August 2007). Berlin Heidelberg : Springer-Verlag, 2007, S. 342-355. 13.7 – Studien- und Abschlussarbeiten Studienarbeit: Robertino sagt Hallo Bearbeiter: Sami Abidi (beendet am 31.01.2006) Betreuer: Dr.-Ing. Bernd Ludwig 319 – Diplomarbeit: Planzielrevision durch Fehleranalyse unter Berücksichtigung von Benutzerpräferenzen (”Was läuft denn da schief?”) Bearbeiter: Francesco Bertoldi (beendet am 15.04.2006) Betreuer: Dr.-Ing. Bernd Ludwig; Prof. Dr.-Ing. Günther Görz – Diplomarbeit: Part-of-Speech-Tagging für Deutsch Bearbeiter: Stefan Bienk (beendet am 15.06.2006) Betreuer: Dr.-Ing. Sebastian Schmidt – Studienarbeit: INTCER: Entwicklung eines Algorithmus zur proaktiven Erstellung einer Auswahl von gerätespezifisch angepassten, sehenswerten Fernsehsendungen Bearbeiter: Kristina Makedonska (beendet am 1.8.2006) Betreuer: Prof. Dr.-Ing. Günther Görz; Dipl.-Ing. Bernhard Schiemann; Dr.-Ing. Bernd Ludwig – Studienarbeit: INTCER: Entwicklung eines effizienten Klassifizierungsalgorithmus von Fernsehsendungen zu emotional bestimmten Gruppierungen Bearbeiter: Ferdinand Herrmann (beendet am 1.8.2006) Betreuer: Prof. Dr.-Ing. Günther Görz; Dipl.-Ing. Bernhard Schiemann; Dr.-Ing. Bernd Ludwig – Diplomarbeit: Robertino: Selbstlokalisierung und Kartierung Bearbeiter: Alexander Eslava (beendet am 15.08.2006) Betreuer: Prof. Dr.-Ing. Günther Görz; Dr.Ing. Bernd Ludwig; Dipl.-Ing. Bernhard Schiemann; Peter Reiß, M.A. – Studienarbeit: OWL-Codec für JADE-Agentenplattform Bearbeiter: Ulf Schreiber (beendet am 12.10.2006) Betreuer: Prof. Dr.-Ing. Günther Görz; Dipl.-Ing. Bernhard Schiemann – Diplomarbeit: Template-Filling am Beispiel von Digitalkameras Bearbeiter: Stefan Clepce (beendet am 02.11.2006) Betreuer: Dr.-Ing. Sebastian Schmidt – Diplomarbeit: Mobile Lokalisation per GPS und Routenplanung per WAP Bearbeiter: Tobias Schwab (beendet am 28.02.2007) Betreuer: Dr.-Ing. Bernd Ludwig – Diplomarbeit: Erweiterung des INTCER Fernseher—Assistenzsystems um eine Steuerung mittels Smartphone unter besonderer Berücksichtigung der eingeschränkten Resourcen und der Softwareergonomie Bearbeiter: Andreas Osswald (beendet am 23.03.2007) Betreuer: Prof. Dr.-Ing. Günther Görz; Dipl.-Ing. Bernhard Schiemann – Studienarbeit: ROBERTINO: Erweiterung der Sensorik mit Ultraschallsensoren Bearbeiter: Arian Bär (beendet am 24.05.2007) Betreuer: Prof. Dr.-Ing. Günther Görz; Peter Reiß, M.A.; Dipl.-Ing. Bernhard Schiemann – Studienarbeit: Editor für Valenzrahmen Bearbeiter: Martin Scholz (beendet am 25.06.2007) Betreuer: Dr.-Ing. Bernd Ludwig 320 – Studienarbeit: GermaNet ME – Ein semantisches Lexikon des Deutschen für mobile Endgeräte Bearbeiter: Björn Zenker (beendet am 25.6.2007) Betreuer: Dr.Ing. Bernd Ludwig; Prof. Dr.-Ing. Günther Görz – Studienarbeit: Vergleich zweier Bilderkennungsklassifikatoren und deren Einbindung in das ChuChu-Planüberwachungssystem Bearbeiter: Michael Prinzinger (beendet am 15.07.2007) Betreuer: Dr.-Ing. Bernd Ludwig – Diplomarbeit: OWL DL: A-Box-Updates von OWL-DL-Wissensbasen in JADE basierten Agenten Bearbeiter: Ulf Schreiber (beendet am 06.8.2007) Betreuer: Prof. Dr.-Ing. Günther Görz; Dipl.-Ing. Bernhard Schiemann – Studienarbeit: TextMining-Algorithmen auf kapazitätsbeschränkter Hardware Bearbeiter: Jan Schrader (beendet am 16.08.2007) Betreuer: Dr.-Ing. Bernd Ludwig; Dr.-Ing. Sebastian Schmidt; Prof. Dr.-Ing. Günther Görz – Studienarbeit: Mobile Fahrplanauskunft Bearbeiter: Christian Schmidt (beendet am 17.08.2007) Betreuer: Dr.-Ing. Bernd Ludwig – Diplomarbeit: OWL DL: T-Box-Updates von OWL-DL-Wissensbasen in JADE basierten Agenten Bearbeiter: Moritz Goeb (beendet am 21.08.2007) Betreuer: Prof. Dr.-Ing. Günther Görz; Dipl.-Ing. Bernhard Schiemann – Diplomarbeit: OWL DL: T-Box-Updates von OWL-DL-Wissensbasen in JADE basierten Agenten Bearbeiter: Moritz Goeb (beendet am 21.08.2007) Betreuer: Prof. Dr.-Ing. Günther Görz; Dipl.-Ing. Bernhard Schiemann – Studien-/Diplomarbeit: OWL DL Implementation des CIDOC Conceptual Reference Model Bearbeiter: Martin Oischinger (beendet am 12.09.2007) Betreuer: Prof. Dr.-Ing. Günther Görz; Dipl.-Ing. Bernhard Schiemann – Studienarbeit: ROBERTINO: Wo bin ich? Genaues Navigieren mit günstiger Hardware Bearbeiter: Christian Graef (beendet am 17.09.2007) Betreuer: Prof. Dr.-Ing. Günther Görz; Dipl.-Ing. Bernhard Schiemann; Dr.-Ing. Bernd Ludwig – Diplomarbeit: Entwicklung adaptiver multimodaler Bedienung im KFZ basierend auf Sprach- und Gestikerkennungskomponenten Bearbeiter: Rene Wittmann (beendet am 01.10.2007) Betreuer: Prof. Dr.-Ing. Günther Görz; Dr.-Ing. Bernd Ludwig; PD Dr.-Ing. Gabriella Kókai – Diplomarbeit: INTCER: Zuordnung von Emotionswörtern zu Schiebereglern im INTCER-Prototypen Bearbeiter: Ferdinand Herrmann (beendet am 10.10.2007) Betreuer: Prof. Dr.-Ing. Günther Görz; Dipl.-Ing. Bernhard Schiemann 321 – Diplomarbeit: ROBERTINO: Autonome Kartenerstellung mittels eines adaptiven Explorationsmodus Bearbeiter: Florian Dachlauer (beendet am 29.10.2007) Betreuer: Prof. Dr.-Ing. Günther Görz; Dipl.-Ing. Bernhard Schiemann; Peter Reiß, M.A.; Dr.-Ing. Bernd Ludwig 322 14 Professur für Informatik (Künstliche Intelligenz) Allgemeine Angaben sowie Details zu Forschungsprojekten und -schwerpunkten finden sich unter den Eintragungen des Lehrstuhls 8 (Künstliche Intelligenz) und auf meiner Homepage 14.1 Forschungsschwerpunkte Maschinelle Verarbeitung natürlicher Sprache, insbesondere Dialogsysteme — Angewandte Logik: Wissensrepräsentation und -verarbeitung mit Anwendungen auf Digitale Medien — KI-Programmierung, verteilte und parallele Systeme 323 15 Lehrstuhl für Informatik 9 (Graphische Datenverarbeitung) Anschrift: Am Weichselgarten 9, 91058 Erlangen-Tennenlohe Tel.: 09131/85-29919 Fax: 09131/85-29931 E-Mail: [email protected] Leitung: Prof. Dr. Günther Greiner Professoren: Prof. Dr. Günther Greiner Prof. Dr. Marc Stamminger Sekretariat: Maria Baroti Wiss. Mitarbeiter: Dipl.-Inf. Frank Bauer Dipl.-Inf. Sebastian Buntin Dipl.-Inf. Christian Eisenacher Dipl.-Inf. Frank Enders Dipl.-Inf. Manfred Ernst Dipl.-Inf. Frank Firsching Dipl.-Math. Matthias Franz Dr. rer. nat. Roberto Grosso Dipl.-Inf. Franz Lankes Dipl.-Inf. Michael Martinek Dr.-Ing. Martin Meister Dipl.-Inf. Quirin Meyer Dipl.-Inf. Michael Schwarz Dipl.-Inf. Sebastian Seifert Dipl.-Inf. Jochen Süßmuth MSc. Matthias Teßmann Dipl.-Inf. Marco Winter Die graphische Datenverarbeitung – und damit der Lehrstuhl – beschäftigt sich mit der Herstellung und Manipulation synthetischer Bilder, virtueller Welten und Computeranimationen mit Hilfe von Rechnern. Hierzu gehören insbesondere Verfahren zur Erstellung eines geeigneten rechnerinternen Szenenmodells (Modellierung), Verfahren zur graphischen Darstellung dieses Modells (Bildsynthese, Rendering) sowie die graphische Aufbereitung komplexer Datenmengen mit dem Ziel, den repräsentierten 324 Inhalt interpretierbar darzustellen (wissenschaftliche Visualisierung). 15.1 Forschungsschwerpunkte Das Forschungsthema der GDV gliedert sich in drei Hauptbereiche: Geometrische Modellierung • Flächenrekonstruktion • Qualitätskontrolle • Subdivision Verfahren • 3D-Gitterverwaltung • Registrierung • Hierarchische Verfahren, Variationsansätze Bildsynthese • Bildbasierte Verfahren, Lichtfelder • Punktbasiertes Rendering • Bildsynthese in Virtual-Reality-Anwendungen • Globale Beleuchtungs- und Schattenberechnung • Ray Tracing • Verteiltes und paralleles Rendering Visualisierung • Medizinische Visualisierung • Registrierung und Segmentierung medizinischer Tomographiedaten • Integration von Simulation und Visualisierung • Interaktive Visualisierung von 3D-Daten • Strömungsvisualisierung • Virtual Reality Diese drei Forschungsgebiete stehen nicht unabhängig nebeneinander sondern sind jeweils auf Ergebnisse der anderen angewiesen. 325 15.2 Forschungsrelevante apparative Ausstattung • PC-Cluster (4 Dual Xeon Rechner) • SGI Onyx2 (Infinite Reality 2 Graphik, 2 Mips R10000 CPUs) • Stereoskopisches Rückprojektionssystem incl. Tracking 15.3 Kooperationsbeziehungen Es existieren Kooperationsbeziehungen zu den folgenden Firmen: • BMW Group Forschung und Technik • EADS Deutschland GmbH, München • Fraunhofer IIS, Erlangen • Fraunhofer IZFP, Fürth • Institut für Vegetationskunde und Landschaftsökologie (IVL) • Rupp + Hubrach KG, Bamberg • Siemens AG, Medical Solutions, Erlangen • Siemens AG, CO ME, Erlangen • Siemens Audiologische Technik GmbH, Erlangen 15.4 Wissenschaftliche Tagungen • Vision, Modeling, and Visualization 200526 26 URL: http://www.vmv2005.uni-erlangen.de/ 326 15.5 Forschungsprojekte 15.5.1 Bewertung und Optimierung der visuellen Wahrnehmung in der Fahrsimulation Projektleitung: Dr.-Ing. Alexander Huesmann Prof. Dr. Marc Stamminger Beteiligte: Dr.-Ing. Marc Breithecker Stichwörter: Fahrsimulation; Bildverarbeitung; Datenbasenmodellierung; Wahrnehmung Laufzeit: 1.4.2004–31.3.2007 Förderer: BMW Group Forschung und Technik Mitwirkende Institutionen: BMW Group Forschung und Technik Kontakt: Dr.-Ing. Marc Breithecker Tel.: 85-29926 Fax: 85-29931 E-Mail: [email protected] Visuelle ”The driver’s sense of speed can be considerably modified by manipulating the pattern of the visual field” -DentonDer Leistungsdruck auf Forschung und Entwicklung in der Automobilindustrie steigt. Der Wettbewerb fordert innovative Produkte in immer kürzerer Zeit und zu geringeren Kosten. Um diesen Anforderungen gerecht zu werden, werden große Teile des Entwicklungsprozesses zunehmend virtuell durchgeführt. Um die fehlende subjektive Komponente des virtuellen Entwicklungsprozesses auszugleichen, wird in der Automobilindustrie vermehrt das Werkzeug Fahrsimulation eingesetzt. Die Fahrsimulation ermöglicht es, in einer simulierten, reproduzierbaren Umgebung Informationen über das Zusammenspiel Fahrer/ Fahrzeug und die Interaktion mit anderen Verkehrsteilnehmern zu sammeln und unterstützt damit die Entwicklung von z.B. Anzeige-Bedien-Konzepten, Fahrerassistenzsystemen und Cockpitergonomie. Um die Ergebnisse der Fahrsimulation auf das Realfahrzeug übertragen zu können, ist es notwendig, dass das Fahrerverhalten im Simulator dem Verhalten im Realfahrzeug möglichst gut entspricht. Insbesondere im Bereich der visuellen Wahrnehmung besteht Optimierungspotenzial, welches es im Rahmen dieses Projektes zu erschließen gilt. Ent327 wicklungsschwerpunkte hierbei sind die Bewertung und Optimierung der Geschwindigkeitswahrnehmung, der Entfernungsabschätzung sowie der Schilderkennung. Dazu werden Versuche durchgeführt um die Auswirkungen der potenziellen Maßnahmen zu quantifizieren. Durch die Literaturrecherche konnten bereits Kontrast und Zusammensetzung der Ortsfrequenzen als wesentliche Einflussgröße identifiziert werden. Zunächst müssen daher geeignete Methoden gefunden werden, um Kontrast und Frequenzspektrum in komplexen Szenen zu beschreiben bzw. zu bestimmen. Im zweiten Schritt werden dann die in der Szene verwendeten Texturen dahingehend optimiert, dass Sie für den Betrachter ein möglichst kontrastreiches Bild ergeben. Inwieweit dies während der laufenden Simulation durchgeführt werden kann, wird überprüft. Einen weiteren Arbeitsschwerpunkt stellt die anwendungsorientierte Datenbasenmodellierung dar, also die Überprüfung und Änderung/ Ergänzung der Datenbaseninhalte nach fahrsimulationsrelevanten Kriterien. Untersuchungen und Lösungsansätze zum Themenschwerpunkt Schilderkennung folgen. Publikationen – Breithecker, Marc ; Huesmann, Alexander ; Stamminger, Marc: Bewertung und Optimierung der visuellen Geschwindigkeitswahrnehmung in der Fahrsimulation . In: Moeller, Reinhard (Hrsg.) : 9. Workshop Sichtsysteme – Visualisierung in der Simulationstechnik (9. Workshop Sichtsysteme Wuppertal November 2005). Aachen : Shaker Verlag, 2005, S. 35 ff.. – ISBN 3-8322-4580-4 15.5.2 Bildbasierte Rekonstruktion Projektleitung: Prof. Dr. Marc Stamminger Beteiligte: Dipl.-Inf. Frank Bauer Dipl.-Inf. Titus Miloi Beginn: 1.7.2006 Das Erzeugen von 3D-Modellen für die Computergrafik ist oftmals ein aufwendiger Vorgang. Insbesondere, wenn eine reale Szene wie existierende Räume, Gebäude, Straßenzüge oder ganze Städte nachmodelliert werden müssen. Um die Größenverhältnisse der Modelle korrekt nachzuahmen, ist es in der Regel notwendig Konstruktionszeichnungen zu organisiert, oder die Umgebung selbst zu vermessen. Nach dem Erstellen des 3D-Modells müssen noch Texturen erzeugt und aufgetragen werden. Dazu bieten sich unter anderem Synthetische Texturen an, oder reale Fotogra- 328 fien. Auch die Erfassung und das zuordnen dieser Texturen ist unter Umständen zeit und personalaufwendig. Computersysteme wie Facade vereinfachen die Rekonstruktion einfacher Szene erheblich durch den Einsatz von Bildbasierten Algorithmen. Dazu werden in Bilder Kanten identifiziert und mit einem vorgegebenen Modell in Korrelation gebracht. Aus den so durch den Benutzer zugeführten Informationen kann sowohl die Szene rekonstruiert, als auch die Textur aufgebracht werden. Probleme ergeben sich dabei oft durch die Notwendigkeit der Kamera Kalibrierung, oder die Tatsache dass die Ausgangsfotos unter verschiedenen Lichtbedingungen erzeugt wurden. Das vorgegebene Modell muss bei diesen Verfahren oftmals schon grob der realen Szene entsprechen. Rotierte Elemente dürfen z.B. nur geringfügig falsch orientiert in dem Modell vorliegen. Ein weitere Nachteil ist die Abhängigkeit von Kanten, selbst wenn Eckpunkte (die einen höheren Informationsgehalt aufweisen) in den Aufnahmen sichtbar wären. Ziel unserer Forschung soll es sein, die Interaktion des Benutzers auf ein Minimum zu reduzieren. Zum einen sollen die Merkmale (wie Kanten und Punkte) in den Quellbildern automatisch erkannt werden, zum anderen soll das Erstellen des groben Ausgangsmodells automatisiert oder zumindest vereinfacht werden. Um die Erstellung der initialen Szene zu erleichtern sollen neue, intuitive Modellierungsverfahren erarbeitet werden. Durch Anwendung von Tonemapping auf die Fotografien, oder die Rekonstruktion deren Beleuchtungssituationen könnte die Qualität der erzeugten Texturen erheblich verbessert werden. Der Einsatz prozeduraler Ansätze bei der Rekonstruktion kann den Detailgrad des Ergebnisses ebenfalls weiter erhöhen und Fehler in den Texturen ausgleichen. Ferner wollen wir die Beschränkung existierender Anwendungen auf feste Kameramodelle oder deren Abhängigkeit von Kanten auflösen. Dabei soll ein allgemeineren Ansatz verfolgt werden, der es erlaubt beliebige Geometrien (z.B. Kugeln, Bögen) in einer Szene zu platzieren, oder Aufnahmen aus omidirektionalen Kameras zu verwerten. Eine Rekonstruktion mit derlei hohem Freiheitsgrad erfordert robuste nicht-lineare Optimierungsverfahren, die nicht negativ durch Rotationen oder ähnliches beeinflusst werden. 15.5.3 CROSSMOD – Cross-Modale Wahrnehmungsbasierte Interaktion und Darstellung Projektleitung: Prof. Dr. Marc Stamminger Beteiligte: Dipl.-Inf. Michael Schwarz Stichwörter: Virtual Reality; Wahrnehmung 329 Laufzeit: 1.12.2005–30.11.2008 Mitwirkende Institutionen: INRIA – Institut National de Recherche en Informatique et Automatique, University of Bristol French National Center for Scientific Research, Paris Vienna University of Technology, Wien Institut de Recherche et de Coordination Acoustique/Musique, Paris Consiglio Nazionale delle Ricerche, Pisa Untersucht wird die Cross-modale Wahrnehmung in der virtuellen Realität, d.h. wie sich Sehen und Hören in VR-Umgebungen gegenseitig beeinflussen. Ein Verständnis dieser Effekte soll eingesetzt werden, um VR-Anwendungen zu optimieren. 15.5.4 Fortgeschrittene 3D-Visualisierungstechniken Projektleitung: Prof. Dr. Marc Stamminger Beteiligte: Dipl.-Inf. Michael Bauer Stichwörter: Volumenvisualisierung Laufzeit: 1.11.2005–30.4.2006 Förderer: Mercury Computer Systems Zu untersuchen sind fortgeschrittene Visualisierungstechniken für Medizinische Anwendungen. 15.5.5 Fotorealistisches Rendering von CAD Daten Projektleitung: Prof. Dr. Günther Greiner Beteiligte: Dipl.-Inf. Manfred Ernst Stichwörter: Raytracing; Fotorealismus; Rendering; CAD Beginn: 1.10.2003 Kontakt: Dipl.-Inf. Manfred Ernst Tel.: 09131 97376810 330 Fax: 09131 97376899 E-Mail: [email protected] Ziel des Projekts ist die Entwicklung von neuen Methoden für die fotorealistische Darstellung von komplexen CAD Daten. Von der Datenaufbereitung bis zur Berechnung der Bilder werden alle Schritte des Prozesses untersucht. Das Rendering mit Raytracing basierten Verfahren bildet einen besonderen Schwerpunkt des Forschungsprojekts. Im Mittelpunkt steht dabei nicht die Interaktivität, sondern eine perfekt fotoralistische Darstellung mit möglichst wenig Aufwand für den Anwender. Hierfür müssen stabile und schnelle Verfahren für folgende Aufgaben entwickelt werden: Sampling, Material- und Beleuchtungssimulation sowie Aufbau und Traversierung von Beschleunigungsstrukturen für das Raytracing. Untersucht werden hauptsächlich CPU basierte Verfahren auf modernen Multi-Core Architekturen und PC-Clustern. GPU basierte Implementierungen werden ebenfalls analysiert und verglichen. Publikationen – Ernst, Manfred ; Firsching, Frank ; Grosso, Roberto: Entkerner: A system for Removal of Globally Invisible Triangles from . In: Sandia National Laboratories (Hrsg.) : Proceedings 13th International Meshing Roundtable (13th International Meshing Roundtable Williamsburg, Virginia, USA 19.09.2004 – 22.09.2004). 2004, S. 449-457. – Ernst, Manfred ; Vogelgsang, Christian ; Greiner, Günther: Stack Implementation on Programmable Graphics Hardware . In: Girod, Bernd ; Magnor, Marcus ; Seidel, Hans-Peter (Hrsg.) : Vision Modeling and Visualization 2004 (Vision Modeling and Visualization 2004 Stanford, California, USA 16.11.2004 – 18.11.2004). Berlin : Akademische Verlagsgesellschaft Aka, 2004, S. 255-262. – ISBN 3-89838058-0 – Beister, Marcel ; Ernst, Manfred ; Stamminger, Marc: A Hybrid GPU-CPU Renderer . In: Greiner, Günther ; Hornegger, Joachim ; Niemann, Heinrich ; Stamminger, Marc (Hrsg.) : Vision, Modeling, and Visualization 2005 (Vision, Modeling, and Visualization 2005 Erlangen, Deutschland 16.11.2005 – 18.11.2005). Berlin : Akademische Verlagsgesellschaft Aka GmbH, 2005, S. 415-420. – ISBN 389838-068-8 – Ernst, Manfred ; Stamminger, Marc ; Greiner, Günther: Filter Importance Sampling . In: Wald, Ingo ; Parker, Steven G. (Hrsg.) : Proceedings IEEE Symposium on Interactive Ray Tracing 2006 (IEEE Symposium on Interactive Ray Tracing 2006 Salt Lake City, Utah, USA 18.09.2006 – 20.09.2006). Salt Lake City, Utah, USA : IEEE, 2006, S. 125-132. – ISBN 1-4244-0693-5 331 15.5.6 Globale Beleuchtungsverfahren auf Grafikhardware Projektleitung: Prof. Dr. Marc Stamminger Beteiligte: Dr.-Ing. Carsten Dachsbacher Stichwörter: global illumination, graphics hardware Beginn: 1.1.2005 In diesem Projekt werden Verfahren zur Berechnung globaler Beleuchtungslösungen auf Grafikhardware untersucht. Viele dieser Verfahren sind aufgrund Ihres globalen Characters schwer zu parallelisieren. Es werden daher Wege gesucht, spezielle Effekte der globalen Beleuchtung (Kaustiken, indirektes Licht) dennoch algorithmisch so anzupassen, dass eine parallelisierte Abarbeitung auf Grafikkarten möglich wird. Publikationen – Beister, Marcel ; Ernst, Manfred ; Stamminger, Marc: A Hybrid GPU-CPU Renderer . In: Greiner, Günther ; Hornegger, Joachim ; Niemann, Heinrich ; Stamminger, Marc (Hrsg.) : Vision, Modeling, and Visualization 2005 (Vision, Modeling, and Visualization 2005 Erlangen, Deutschland 16.11.2005 – 18.11.2005). Berlin : Akademische Verlagsgesellschaft Aka GmbH, 2005, S. 415-420. – ISBN 389838-068-8 – Ernst, Manfred ; Akenine-Möller, Tomas ; Jensen, Henrik Wann: Interactive rendering of caustics using interpolated warped volumes . In: Inkpen, Kori ; Van de Panne, Michiel (Hrsg.) : Proceedings Graphics Interface 2005 (Graphics Interface 2005 Victoria, British Columbia, Kanada 09.05.2005 – 11.05.2005). Waterloo, Ontario, Kanada : Canadian Human-Computer Communications Society, 2005, S. 87-96. – ISBN 1-5688-1265-5 – Dachsbacher, Carsten: Interactive Rendering of Indirect Illumination on GPUs .Vortrag: Institut National de Recherche en Informatique, SophiaAntipolis/Frankreich, 16.11..2005 – Borsdorf, Anja ; Dachsbacher, Carsten ; Stamminger, Marc: Progressive Radiosity auf programmierbarer Grafikhardware . In: —– (Hrsg.) : Workshop Hardware for Visual Computing (Workshop Hardware for Visual Computing Tübingen 29.04.2005). 2005, S. –. 332 – Dachsbacher, Carsten ; Stamminger, Marc: I3: Interactive Indirect Illumination . In: Engel, Wolfgang (Hrsg.) : Shader X4. 1. Aufl. Boston : Charles River Media, 2006, S. 235-246. – ISBN 1584504250 – Dachsbacher, Carsten ; Stamminger, Marc: Reflective Shadow Maps . In: ACM, SIGGRAPH (Hrsg.) : Proceedings of ACM SIGGRAPH Symposium on Interactive 3D Graphics and Games 2005 (2005 ACM SIGGRAPH Symposium on Interactive 3D Graphics and Games Washington DC 3.-6. April 2005). 2005, S. 203231. – Dachsbacher, Carsten: Approximate Global Illumination (Part 1) and Procedural Terrain Texturing (Part 2) .Vortrag: Rockstar Games, Core Technology Group, San Diego, CA, 2006, Rockstar Games, San Diego/CA, 13.03.2006 – Wyman, Chris ; Dachsbacher, Carsten: Improving Image-Space Caustics Via Variable-Sized Splatting . Iowa : University of Iowa. 2006 (UICS-06-02). – Forschungsbericht. 19 Seiten – Dachsbacher, Carsten: Interactive Rendering of Indirect Illumination .Vortrag: Computer Graphics Department, Max-Planck-Institut, Saarbrücken, Computer Graphics Department, Max-Planck-Institut, Saarbrücken, 14.02.2006 – Dachsbacher, Carsten ; Stamminger, Marc: Splatting Indirect Illumination . In: Watson, Ben ; Cohan, Jonathan (Hrsg.) : Proceedings of ACM SIGGRAPH Symposium on Interactive 3D Graphics and Games 2006 (Symposium on Interactive 3D Graphics and Games 2006). New York : ACM Press, 2006, S. 93-100. 15.5.7 Interaktive Visualisierung Prozeduraler Modelle Projektleitung: Prof. Dr. Marc Stamminger Beteiligte: Dr.-Ing. Carsten Dachsbacher Dipl.-Inf. Sebastian Buntin Stichwörter: Visualisierung; Prozedurale Modelle; Grafikhardware Laufzeit: 1.1.2005–31.12.2006 Kontakt: Prof. Dr. Marc Stamminger Tel.: 85-29919 Fax: 85-29931 E-Mail: [email protected] 333 Komplexe 3D-Modelle virtueller Objekte lassen sich oftmals nur in prozeduraler Form beschreiben, das heißt als Programm, das Geometrie und Oberflächeneigenschaften des Objektes in variablem Detailgrad, zu bestimmten Zeitpunkten einer Animation oder in unterschiedlichen Ausprägungen erzeugt. Ein Beispiel ist eine Prozedur, die das geometrisches Modell eines Baumes einer bestimmten Gattung mit vorgegebenem Alter generiert, und die ebenso beschreibt, wie die Blätter des Baumes eingehendes Licht reflektieren. Bisher werden solche Modelle in Standarddarstellungen umgewandelt (Dreiecksnetze, Texturen, vereinfachte Reflexionsmodelle) und dann mit Standardtechniken visualisiert. Dieser Umweg kostet Rechenzeit und Speicher, und es gehen viele Optimierungsmöglichkeiten für eine interaktive Visualisierung verloren. In diesem Projekt werden Verfahren untersucht, unterschiedliche bekannte prozedurale Modelle erst zur Laufzeit auszuwerten und dann direkt zu visualisieren. Dazu werden die Möglichkeiten moderner programmierbarer Grafikhardware ausgenützt. Diese stellen enorme Rechenleistung zur Verfügung, die parallele Fließbandarchitektur macht jedoch spezielle Auswerte- und Visualisierungsalgorithmen nötig. In dem Projekt werden solche Algorithmen für einige klassische prozedurale Modelle wie fraktale Höhenfelder und L-Systeme entwickelt. Publikationen – Dachsbacher, Carsten ; Stamminger, Marc: Translucent Shadow Maps . In: Eurographics (Hrsg.) : Rendering Techniques 2003 (Eurographics Symposium on Rendering Leuven, Belgien 25.-27.6.2003). 2003, S. 197-201,311. – Dachsbacher, Carsten ; Stamminger, Marc: Rendering Procedural Terrain by Geometry Image Warping . In: Keller, A. ; Jensen, H. W. (Hrsg.) : Rendering Techniques 2004 (Eurographics Symposium on Rendering 2004 (EGSR 2004) Norkoeping). / : Eurographics Association, 2004, S. 103-110. (Rendering Techniques 2004 (Proceedings of Eurographics Symposium on Rendering)) – ISBN 3905673-12-6 – Dachsbacher, Carsten ; Stamminger, Marc: Reflective Shadow Maps . In: ACM, SIGGRAPH (Hrsg.) : Proceedings of ACM SIGGRAPH Symposium on Interactive 3D Graphics and Games 2005 (2005 ACM SIGGRAPH Symposium on Interactive 3D Graphics and Games Washington DC 3.-6. April 2005). 2005, S. 203231. – Dachsbacher, Carsten ; Meyer, Martin ; Stamminger, Marc: Heightfield Synthesis by Non-Parametric Sampling . In: Greiner, Günther ; Hornegger, Joachim ; Niemann, Heinrich ; Stamminger, Marc (Hrsg.) : VISION, MODELING, AND 334 VISUALIZATION 2005 (VISION, MODELING, AND VISUALIZATION 2005 Erlangen 16.-18. November 2005). Erlangen : Akademische Verlagsgesellschaft Aka, 2005, S. 297-302. – Sußner, Gerd ; Dachsbacher, Carsten ; Greiner, Günther: Hexagonal LOD for Interactive Terrain Rendering . In: Greiner, Günther ; Hornegger, Joachim ; Niemann, Heinrich ; Stamminger, Marc (Hrsg.) : Vision Modeling and Visualization 2005 (Vision Modeling and Visualization 2005 Erlangen 16.-18. November 2005). Erlangen : Akademische Verlagsgesellschaft, 2005, S. 437-444. – Dachsbacher, Carsten ; Stamminger, Marc: Cached Procedural Textures for Terrain Rendering . In: Engel, Wolfgang (Hrsg.) : Shader X4. 1. Aufl. Boston : Charles River Media, 2006, S. 457-466. – ISBN 1584504250 – Dachsbacher, Carsten ; Stamminger, Marc: I3: Interactive Indirect Illumination . In: Engel, Wolfgang (Hrsg.) : Shader X4. 1. Aufl. Boston : Charles River Media, 2006, S. 235-246. – ISBN 1584504250 – Dachsbacher, Carsten: Interactive Terrain Rendering – Towards Realism with Procedural Models and Graphics Hardware . Erlangen, Universität ErlangenNürnberg, Diss., 2006. – 176 Seiten. – Dachsbacher, Carsten ; Stamminger, Marc: Splatting Indirect Illumination . In: Watson, Ben ; Cohan, Jonathan (Hrsg.) : Proceedings of ACM SIGGRAPH Symposium on Interactive 3D Graphics and Games 2006 (Symposium on Interactive 3D Graphics and Games 2006). New York : ACM Press, 2006, S. 93-100. – Dachsbacher, Carsten ; Tobias Bolch ; Stamminger, Marc: Procedural Reproduction of Terrain Textures with Geographic Data . In: L. Kobbelt ; T. Kuhlen ; T. Aach ; R. Westermann (Hrsg.) : Vision, Modelling and Visualization (Vision, Modelling and Visualization Aachen Nov 22.-24). Berlin : Akademische Verlagsgesellschaft, 2006, S. 105–112. – Dachsbacher, Carsten ; Stamminger, Marc: Splatting of Diffuse and Glossy Indirect Illumination . In: Engel, Wolfgang (Hrsg.) : Shader X 5. Boston : Charles River Media, 2007, S. 373-387. 15.5.8 Registriermethoden für 2D-Projektionen zur virtuellen Computertomographie in der Materialprüfung Projektleitung: Prof. Dr. Marc Stamminger 335 Dr. Randolf Hanke Beteiligte: Dipl.-Math. Matthias Franz Laufzeit: 1.10.2004–1.10.2007 Mitwirkende Institutionen: Fraunhofer IIS Die Computertomographie (CT) wird in der Medizin seit Jahren erfolgreich eingesetzt. Immer häufiger findet sie auch in der Industrie z.B. für Maßhaltigkeitsprüfungen ihre Anwendung. Die zu durchleuchtenden Objekte bestehen hier oft aus Metall, sind also hochabsorbierend. Die für die Absorption verantwortlichen Wechselwirkungen führen aber auch zu Artefakten in den Rekonstruktionen, was komplexe Korrekturverfahren notwendig macht. Die Iterative Artefaktreduzierung, ein neues und sehr effektives Verfahren, benutzt als einen wichtigen Input die Weglängen der Röntgenstrahlen im Prüfling. Diese Weglängen werden z.Z. in einer zeitaufwendigen Nachbearbeitung der Projektionsdaten gewonnen, so dass mit den Korrekturen erst deutlich nach dem Aufnahmeende begonnen werden kann. Im Fall von den Maßhaltigkeitsprüfungen ist aber schon vor Beginn der Aufnahme ein CAD-Modell des Prüflings vorhanden. Ziel dieses Projektes ist es jetzt, dieses Wissen auch zu nutzen, indem die Orientierung des Prüflings mittels einer 3D-2D-Registrierung nach nur wenigen Projektionen hinreichend genau bestimmt wird. Nun kann man mit dem CAD-Modell eine virtuelle CT starten. Aus dieser lassen sich die durchstrahlten Weglängen bestimmen, ohne dass dafür noch eine langwierige Nachbearbeitung notwendig ist. Jetzt kann man mit den Korrekturen schon während der Aufnahme beginnen und damit die Zeitspanne vom Start der CT-Aufnahme bis zum korrigierten Volumen deutlich verkürzen. Publikationen – Franz, Matthias ; Stamminger, Marc: 2D-3D-Registration in Computer Tomography without an initial pose . In: L. Kobbelt ; T. Kuhlen ; T. Aach ; R. Westermann (Hrsg.) : Vision, Modelling and Visualization (Vision, Modelling and Visualization Aachen Nov 22.-24). Berlin : Akademische Verlagsgesellschaft, 2006, S. 229236. 336 15.5.9 SFB603 – TP A2: Hybride Flächendarstellung zur interaktiven Manipulation von CAD-Daten Projektleitung: Prof. Dr. Günther Greiner Beteiligte: Dipl.-Math. Gerd Sußner Stichwörter: CAD; NURBS; Dreiecksnetze; interaktive Flächenmodellierung; Optimierung; hierarchische Flächen Laufzeit: 1.1.2004–31.12.2009 Förderer: Sonderforschungbereich 603 Im Konstruktionsprozess wird zunächst in einem CAD-System die Geometrie eines Bauteils modelliert. Anschließend wird mit einem Visualisierungstool die Qualität der Flächen begutachtet. Die Visualisierungstools benötigen in der Regel jedoch eine diskrete Darstellungsform der Flächen (z.B. Dreiecksnetze), welche aus der mathematischen Beschreibung der Flächen erzeugt werden. Modifikationen der Flächen aufgrund der Visualisierung finden wieder im CAD-System statt. Diese Iterations-Schleife ist sehr umständlich und zeitaufwändig, da oft zwischen den verschiedenen Systemen gewechselt werden muss. Eine andere Möglichkeit wäre, direkt das Dreiecksnetz zu modifizieren und die Fläche in das CAD-System rückzuführen. Die Umwandlung von einer Darstellung in die andere ist jedoch nicht verlustfrei und somit für mehrere Durchgänge nicht praktikabel. Ein neuer Ansatz besteht nun darin, die beiden Darstellungen fest miteinander zu koppeln, d.h. eine Änderung an einer Darstellung erzwingt eine Änderung an der anderen. Somit hat man Modellierung und Visualisierung vereint. Publikationen – Sußner, Gerd ; Greiner, Günther ; Augustiniack, Stefan : Interactive examination of surface quality on car bodies . In: Computer-Aided Design 36 (2004), Nr. 5, S. 425-436 – Wagner, Marc ; Labsik, Ulf ; Greiner, Günther: Repairing Non-Manifold Triangle Meshes using Simulated Annealing . In: Tel Aviv University (Veranst.) : Proc. of The 4th Israeal-Korea Bi-National Conference on Geometric Modeling and Computer Graphics (The 4th Israeal-Korea Bi-National Conference on Geometric Modeling and Computer Graphics Tel Aviv 12.-14.2.2003). 2003, S. 88-93. 337 – Dyn, Nira ; Hormann, Kai ; Levin, David ; Kim, Sun-Jeong: Optimizing 3D Triangulations Using Discrete Curvature Analysis . In: Lyche, Tom ; Schumaker, Larry L. (Hrsg.) : Mathematical Methods for Curves and Surfaces: Oslo 2000. Nashville : Vanderbilt University Press, 2001, (Innovations in Applied Mathematics), S. 135-146. – ISBN 0-8265-1378-6 – Floater, Michael S. ; Hormann, Kai ; Reimers, Martin: Parameterization of Manifold Triangulations . In: Chui, Charles K. ; Schumaker, Larry L. ; Stöckler, Joachim (Hrsg.) : Approximation Theory X: Abstract and Classical Analysis. Nashville : Vanderbilt University Press, 2002, (Innovations in Applied Mathematics), S. 197-209. – ISBN 0-8265-1415-4 – Floater, Michael S. ; Hormann, Kai: Parameterization of Triangulations and Unorganized Points . In: Iske, Armin ; Quak, Ewald ; Floater, Michael S. (Hrsg.) : Tutorials on Multiresolution in Geometric Modelling. Berlin : Springer, 2002, (Mathematics and Visualization), S. 287-316. – ISBN 3-540-43639-1 – Schulz, Christian ; Sußner, Gerd ; Greiner, Günther: G1-continuous Surface Reconstruction With Trimmed B-Spline Surfaces . In: Schumaker, Larry (Hrsg.) : Mathematical Methods for Curves and Surfaces (Mathematical Methods for Curves and Surfaces Tromsö 01.-06.07.2004). tba : tba, 2005, S. tba. – Sußner, Gerd ; Stamminger, Marc ; Greiner, Günther: Bidirectional Sqrt(3)Subdivision . Informatik 9 : Universitaet Erlangen. 2005 (2). – Interner Bericht. 8 Seiten – Sußner, Gerd ; Dachsbacher, Carsten ; Greiner, Günther: Hexagonal LOD for Interactive Terrain Rendering . In: Greiner, Günther ; Hornegger, Joachim ; Niemann, Heinrich ; Stamminger, Marc (Hrsg.) : Vision Modeling and Visualization 2005 (Vision Modeling and Visualization 2005 Erlangen 16.-18. November 2005). Erlangen : Akademische Verlagsgesellschaft, 2005, S. 437-444. 15.5.10 SFB603 – TP B6: Rechnergestützte Endoskopie des Bauchraums Projektleitung: Prof. Dr. med. Werner Hohenberger Prof. Dr. Günther Greiner Prof. Dr.-Ing. Joachim Hornegger Beteiligte: Dr. med. Sophie Krüger Dipl.-Inf. Marco Winter Dipl. Med.-Inf. Jochen Penne 338 Stichwörter: minimal-invasive Chirurgie; virtuelle Endoskopie; Lichtfeld; Augmented Reality Laufzeit: 1.1.2000–31.12.2007 Förderer: Sonderforschungbereich 603 Mitwirkende Institutionen: Chirurgische Universitätsklinik Erlangen Lehrstuhl für Informatik 5 (Mustererkennung) Kontakt: Dipl.-Inf. Marco Winter Tel.: 85-25254 Fax: 85-25249 E-Mail: [email protected] Im Teilprojekt B6 ist das langfristige Ziel, zur Unterstützung des Chirurgen bei endoskopischen Operationen eine durch CT/MR-Daten erweiterte dreidimensionale Visualisierung des Operationsgebietes in Form eines Lichtfeldes bereitzustellen und Beeinträchtigungen sowohl im Live-Bild als auch in der Visualisierung zu reduzieren. Dies ermöglicht den Schritt von der herkömmlichen Chirurgie zur ”Computer Assisted Surgery” (CAS) im Bereich der Endoskopie von Körperhöhlen. Publikationen – Winter, Marco ; Meister, Martin ; Greiner, Günther: Integration of Multiple Unstructured Lumigraphs in a Rendering Framework . In: Kobbelt, Leif ; Kuhlen, Torsten ; Aach, Til ; Westermann, Rüdiger (Hrsg.) : Proceedings Vision, Modeling and Visualization 2006 (Vision, Modeling and Visualization 2006 Aachen 22.11.06 – 24.11.06). Aachen : Akademische Verlagsgesellschaft Aka GmbH, 2006, S. 121-128, 391. – ISBN 3-89838-081-5 – Winter, Marco ; Greiner, Günther ; Vogt, Florian ; Niemann, Heinrich ; Krüger, Sophie: Visualizing distances between light field and geometry using projective texture mapping . In: Greiner, Günther ; Hornegger, Joachim ; Niemann, Heinrich ; Stamminger, Marc (Hrsg.) : Vision, Modeling and Visualization 2005 Proceedings (Vision, Modeling and Visualization 2005 Erlangen 16.11.-18.11.2005). Erlangen : infix, Aka GmbH, 2005, S. 257-264. – ISBN 3-89838-068-8 – Vogt, Florian ; Krüger, Sophie ; Winter, Marco ; Niemann, Heinrich ; Hohenberger, Werner ; Greiner, Günther ; Schick, Christoph: Erweiterte Realität und 339 3-D Visualisierung für minimal-invasive Operationen durch Einsatz eines optischen Trackingsystems . In: Meinzer, H.-P. ; Handels, H. ; Horsch, A. ; Tolxdorff, T. (Hrsg.) : Proceedings Bildverarbeitung für die Medizin (Bildverarbeitung für die Medizin Heidelberg 13.-15.3.2005). Berlin : Springer, 2005, S. 217-221. ISBN 3-540-25052-2 15.5.11 SFB603 – TP C2: Analyse, Codierung und Verarbeitung von Lichtfeldern zur Gewinnung realistischer Modelldaten Projektleitung: Prof. Dr. Günther Greiner Prof. em. Dr.-Ing. Heinrich Niemann Prof. Dr.-Ing. Joachim Denzler Beteiligte: Dr.-Ing. Christian Vogelgsang Dipl.-Inf. Ingo Scholz Dr.-Ing. Martin Meister Stichwörter: Lichtfelder; Lumigraph; Rendering; Hardware-beschleunigt; bildbasiert Laufzeit: 1.1.1998–31.12.2009 Förderer: Sonderforschungbereich 603 Mitwirkende Institutionen: Lehrstuhl für Mustererkennung (Informatik 5) Kontakt: Dr.-Ing. Christian Vogelgsang E-Mail: [email protected] Computergraphik und Bildverarbeitung beginnen seit einigen Jahren verstärkt zusammenzuwachsen. Das belegen zahlreiche international anerkannte Konferenzen auf beiden Gebieten, in denen sich Themen aus dem Bereich ”Image Based Rendering” oder ”Computer Vision for Computer Graphics” etabliert haben. Diese greift das Teilprojekt C2 mit dem langfristigen Ziel auf, automatisch eine effiziente Repräsentation realer Szenen zum Zwecke der Analyse und Visualisierung zu ermitteln. Das Projekt teilt sich grob in zwei Abschnitte auf. Zunächst wird aus den Videosequenzen eine bildbasierte Repräsentation ermittelt. Dieses Aufgabenfeld ”Lichtfeld- und Geometrierekonstruktion” bearbeitet der Lehrstuhl für Mustererkennung und kümmert sich dabei verstärkt um die Berechnung der intrinsischen und extrinsischen Kameraparameter aus einem unkalibrierten Bildstrom und um die Erstellung eines hierarchischen geometrischen Szenenmodells unterschiedlicher Auflösungsstufen, das es ermöglicht, 340 die Visualisierungsqualität je nach Bedarf anzupassen. Bei der Modellierung wird neben der bisher üblichen Interpolation von neuen Szenenansichten auch ihre Extrapolation berücksichtigt. Des weiteren werden erste Arbeiten begonnen, die sich mit der Anwendung der bildbasierten Modellierung für die Analyse befassen sowie einer Erweiterung auf dynamische Lichtfelder. Im zweiten Abschnitt des Projektes wird die ermittelte Modellinformation verwendet, um neue Ansichten der Szene zu generieren. Diese Forschung im Bereich der Visualisierung wird vom Lehrstuhl für Graphische Datenverarbeitung durchgeführt. Dort sollen neue Verfahren entwickelt werden, die mit Hilfe von 3-D-Hardware auch komplexe Darstellungen in Echtzeit erzeugen können. Als wesentliches Merkmal des Gesamtsystems sollen die visualisierten Daten in den Analyseprozess rückgeführt werden, um die Aufnahmeposition neuer Ansichten sicher zu schätzen, die bisherigen Kalibrierparameter zu verbessern und die neu gewonnenen Daten in ein verfeinertes Szenenmodell fließen zu lassen, das auch für diese Anforderung hierarchisch strukturiert sein muss. Publikationen – Vogelgsang, Christian ; Heigl, Benno ; Greiner, Günther ; Niemann, Heinrich: Automatic Image-Based Scene Model Acquistion and Visualization . In: Bernd Girod ; Greiner, Günther ; Niemann, Heinrich ; Hans-Peter Seidel (Hrsg.) : Proceedings (Vision Modeling and Visualization 2000 Saarbrücken 22-24.11.2000). 1. Aufl. Berlin : Akad. Verl.-Ges. 2000, 2000, S. 189-198. – ISBN 3-89838-019-X – Vogelgsang, Christian: Free Form Lightfields . Erlangen : Uni Erlangen. 2001 (3). – Interner Bericht. 8 Seiten – Vogelgsang, Christian ; Greiner, Günther: Interactive Range Map Rendering with Depth Interval Texture Slicing . In: T. Ertl ; B. Girod ; Greiner, Günther ; Niemann, Heinrich ; H.-P. Seidel (Hrsg.) : Proceedings of Vision, Modeling, and Visualization 2003 (Vision, Modeling, and Visualization 2003 München 1921.11.2003). Berlin : infix, 2003, S. 477-484. – ISBN 3-89838-048-3 – Dachsbacher, Carsten ; Vogelgsang, Christian ; Stamminger, Marc: Sequential Point Trees . In: ACM Transactions on Graphics (Proc. SIGGRAPH 2003) 22 (2003), Nr. 03, S. 657-662 – Hartmut Schirmacher ; Vogelgsang, Christian ; Hans-Peter Seidel ; Greiner, Günther: Efficient Free Form Light Field Rendering . In: Thomas Ertl ; Bernd Girod ; Greiner, Günther ; Niemann, Heinrich ; Hans-Peter Seidel (Hrsg.) : Proceedings (Vision Modeling and Visualization 2001 Stuttgart 21-23.11.2001). Bd. 1, 1. Aufl. Berlin : AKA, 2001, S. 249-256. – ISBN 3-89838-028-9 341 – Vogelgsang, Christian ; Scholz, Ingo ; Greiner, Günther ; Niemann, Heinrich: lgf3 – A Versatile Framework for Vision and Image-Based Rendering Applications . In: Greiner, Günther ; Niemann, Heinrich ; Ertl ; Girod ; Seidel, HansPeter (Hrsg.) : Proceedings of Vision, Modeling, and Visualization 2002 (Vision, Modeling, and Visualization 2002 Erlangen 20-22.11.2002). Berlin : Infix, 2002, S. 257-264. – ISBN 3-89838-034-3 – Vogelgsang, Christian ; Greiner, Günther: LGF3 – A versatile framework for image-based modeling and rendering . In: ACM SIGGRAPH (Veranst.) : SIGGRAPH 2004 Sketches and Applications (SIGGRAPH 2004 Los Angeles 8.8.2004-12.8.2004). Los Angeles : ACM Press, 2004, S. DVD ROM. – Kück, Hendrik ; Heidrich, Wolfgang ; Vogelgsang, Christian: Shape from Contours and multiple Stereo – a hierarchical mesh-based approach . In: IEEE (Veranst.) : Proceedings of First Canadian Conference on Computer and Robot VisionPro (First Canadian Conference on Computer and Robot Vision London, Ontario, Canada 17.-19.5.2004). London, Ontario, Canada : IEEE Press, 2004, S. 76-83. – Scholz, Ingo ; Vogelgsang, Christian ; Denzler, Joachim ; Niemann, Heinrich: Dynamic Light Field Reconstruction and Rendering for Multiple Moving Objects . In: Ikeuchi (Hrsg.) : Proceedings of Machine Vision Applications (Machine Vision Applications Tsukuba, Japan Mai 2005). 2005, S. 184-188. – Vogelgsang, Christian: The lgf3 Project: A Versatile Implementation Framework for Image-Based Modeling and Renderin . Erlangen, Universität ErlangenNürnberg, Diss., 2005 – Winter, Marco ; Meister, Martin ; Greiner, Günther: Integration of Multiple Unstructured Lumigraphs in a Rendering Framework . In: Kobbelt, Leif ; Kuhlen, Torsten ; Aach, Til ; Westermann, Rüdiger (Hrsg.) : Proceedings Vision, Modeling and Visualization 2006 (Vision, Modeling and Visualization 2006 Aachen 22.11.06 – 24.11.06). Aachen : Akademische Verlagsgesellschaft Aka GmbH, 2006, S. 121-128, 391. – ISBN 3-89838-081-5 15.5.12 SFB603 – TP C7:Adaptive Verfahren zur Berechnung und Visualisierung von mechatronischen Sensoren und Aktoren Projektleitung: Prof. Dr.-Ing. Reinhard Lerch Prof. Dr. Günther Greiner PD Dr. Manfred Kaltenbacher Dr. rer. nat. Roberto Grosso 342 Beteiligte: Dipl.-Ing. Gerhard Link Dipl.-Inf. Frank Enders Stichwörter: Finite-Element-Methode; gekoppelte Feldprobleme; Zeitschrittintervall; Skalar- und Vektordaten Laufzeit: 1.1.2001–31.12.2009 Förderer: Sonderforschungbereich 603 automatisches Das Ziel dieses Teilprojektes ist die Entwicklung eines computerunterstützen Arbeitsplatzes für die Analyse, den Entwurf und die Optimierung von mechatronischen Sensoren und Aktoren (z.B. kapazitive mikromechanische Ultraschallwandler, piezoelektrische Stapelaktoren zur Betätigung von Einspritzventilen, geregelte kapazitive Beschleunigungssensoren) durch die Anwendung von Mehrgitterverfahren zur numerischen Berechnung der gekoppelten Feldprobleme sowie der interaktiven Visualisierung der multimodalen Simulationsdatensätze mit hierarischen Methoden. Als Ergebnis der Simulation von solchen Mehrfeldproblemen fallen sowohl Skalar- als auch Vektordaten an, die entweder für ein einzelnes den Simulationsraum (Gitter) unterteilendes Volumenelement oder dessen Eckpunkte definiert sind. Neben statischen Simulationen deren Daten den Zustand für einen einzigen Zeitpunkt beschreiben, erfolgen auch Simulationen über einen Zeitraum hinweg, wobei dann zu nicht notwendigerweise äquidistant verteilten Zeitpunkten das gerade aktuelle Gitter abgespeichert wird. Für die Visualisierung von diesen Datensätzen ergeben sich hieraus eine ganze Reihe von Herausforderungen, zum einen sind die verschiedenartigen Daten mit unterschiedlichen Methoden gleichzeitig darzustellen, zum anderen die Algorithmen in ihrem Ressourcenbedarf (Zeitbedarf und Speicherverbrauch) minimal zu halten um eine interaktive Visualisierung auch von größeren Datensätzen zu realisieren. Besonders reizvoll ist es aus Sicht der Computergraphik, die sich neu erschließenden Möglichkeiten einer programmierbaren Graphikpipeline hierfür sinnvoll einzubinden. Publikationen – Reck, Frank ; Greiner, Günther: Fast and Accurate Integration of Vector Fields in Unstructured Grids . In: Informationstechnik und Technische Informatik 6 (2002), Nr. B 7922, S. 331-338 – Reck, Frank ; Rezk-Salama, Christof ; Grosso, Roberto ; Greiner, Günther: Hadware-Accelerated Visualization of Curvilinear Vector Fields . In: Greiner, Günther ; Niemann, Heinrich ; Ertl, Thomas ; Girod, Sabine ; Seidel, Hans-Peter 343 (Hrsg.) : Visoion, Modeling, and Visualization (VMV 2002 Erlangen 20-22 November). Bd. 1, 1. Aufl. Erlangen : infix, 2002, S. 187-192. – ISBN 3-89838-034-3 – Kipfer, Peter ; Reck, Frank ; Greiner, Günther: Local exact particle tracing on unstructured grids . In: Computer Graphics Forum 22 (2003), Nr. 2 – Reck, Frank ; Dachsbacher, Carsten ; Grosso, Roberto ; Greiner, Günther ; Stamminger, Marc: Realtime Isosurface Extraction with Graphics Hardware . In: Alexa, Marc ; Galin, Eric (Hrsg.) : Eurographics 2004, Short Presentations and Interactive Demos (Eurographics 2004 Grenoble 30.8.04 – 3.9.04). Grenoble : INRIA and Eurographics Association, 2004, S. 33-36. (Eurographics 2004, Short Presentations and Interactive Demos) 15.5.13 SFB603 – TP C9: Rekonstruktion und Visualisierung neuronaler Bahnen Projektleitung: PD Dr.-Ing. Peter Hastreiter Prof. Dr. med. Michael Buchfelder Prof. Dr. med. Christopher Nimsky Prof. Dr. Marc Stamminger Beteiligte: Dr.-Ing. Dorit Merhof Dipl.-Inf. Frank Enders Stichwörter: Visualisierung; Diffusionstensor; Pyramidenbahn Laufzeit: 1.1.2004–31.12.2007 Förderer: Sonderforschungbereich 603 Mitwirkende Institutionen: Neurozentrum Neurochirurgie Neuronale Bahnen sind Strukturen, die wichtigen sensorischen, motorischen oder anderen integrativen Funktionen zugeordnet sind. Damit nach einer Gehirnoperation im Falle pathologischer Veränderungen (Tumor) keine neurologischen Defizite auftreten, dürfen diese Nervenbahnen nicht verletzt werden. Im Gegensatz zu Nervensträngen im peripheren System, die mit anderem Gewebe ummantelt sind, unterscheiden sich die Bahnen im Gehirn nur schwach von der grauen Hirnmasse. Zur Differenzierung neuronaler Bahnen wird deshalb Diffusions-Tensor (DT) MRT verwendet, mit dem das Diffusionsverhalten von Wassermolekülen im Gewebe gemessen wird. Ziel des 344 Projekts ist es, neue Ansätze zur genauen Rekonstruktion der Bahnen aus diesen Tensorvolumina zu entwickeln, was eine genaue Analyse der Tensordaten sowie Techniken zur Filterung und Registrierung erfordert. Auf diese Weise sollen chirurgische Eingriffe in Zukunft besser planbar und das chirurgische Risiko gemindert werden. Publikationen – Merhof, Dorit ; Hastreiter, Peter ; Soza, Grzegorz ; Stamminger, Marc ; Nimsky, Christopher: Non-linear Integration of DTI-based Fiber Tracts into Standard 3D MR Data . In: Girod, Bernd ; Magnor, Marcus ; Seidel, Hans-Peter (Hrsg.) : Vision, Modeling and Visualization 2004 Proceedings (Vision, Modeling and Visualization 2004 Stanford, USA 16.11.-18.11.2004). Stanford : infix, 2004, S. 371-378. – ISBN 3-89838-058-0 – Merhof, Dorit ; Hastreiter, Peter ; Nimsky, Christopher ; Fahlbusch, Rudolf ; Greiner, Günther: Directional Volume Growing for the Extraction of White Matter Tracts from Diffusion Tensor Data . In: Galloway, Robert L., Jr. ; Cleary, Kevin R. (Hrsg.) : Visualization, Image-Guided Procedures, and Display (SPIE Medical Imaging San Diego Februar 2005). San Diego : SPIE, 2005, S. 165-172. Bd. 6, Nr. 21 – ISBN 0-8194-5718-3 – Enders, Frank ; Merhof, Dorit ; Hastreiter, Peter ; Stamminger, Marc ; Nimsky, Christopher: Enhanced Visualization of Diffusion Tensor Data for Neurosurgery . In: Meinzer, Hans-Peter ; Handels, Heinz ; Horsch, Alexander ; Tolxdorff, Thomas (Hrsg.) : Bildverarbeitung für die Medizin 2005 (BVM Heidelberg 13. – 15. Maerz 2005). Heidelberg : Springer, 2005, S. .. (Informatik aktuell) – ISBN 3540-25052-2 – Enders, Frank ; Iserhardt-Bauer, Sabine ; Hastreiter, Peter ; Nimsky, Christopher ; Ertl, Thomas: Hardware-accelerated Glyph Based Visualization of Major White Matter Tracts for Analysis of Brain Tumors . In: Galloway, Robert L., Jr. ; Cleary, Kevin R. (Hrsg.) : Visualization, Image-Guided Procedures, and Display (SPIE Medical Imaging San Diego Februar 2005). San Diego : SPIE, 2005, S. 504-511. Bd. 6, Nr. 21 – ISBN 0-8194-5718-3 – Merhof, Dorit ; Enders, Frank ; Vega Higuera, Fernando ; Hastreiter, Peter ; Nimsky, Christopher ; Stamminger, Marc: Integrated Visualization of Diffusion Tensor Fiber Tracts and Anatomical Data . In: Schulze, Thomas ; Horton, Graham ; Preim, Bernhard ; Schlechtweg, Stefan (Hrsg.) : Simulation und Visualisierung 2005 (Simulation und Visualisierung 2005 Magdeburg 3.-4. Maerz 2005). Erlangen : SCS Publishing House e.V., 2005, S. 153-164. – ISBN 3-936150-40-0 345 – Nimsky, Christopher ; Ganslandt, Oliver ; Hastreiter, Peter ; Wang, Ruopeng ; Brenner, Thomas ; Sorensen, Gregory ; Fahlbusch, Rudolf: Intraoperative diffusion-tensor MR imaging: shifting of white matter tracts during neurosurgical procedures – initial experience . In: Radiology 234 (2005), Nr. 1, S. 218-25 – Nimsky, Christopher ; Ganslandt, Oliver ; Hastreiter, Peter ; Wang, Ruopeng ; Brenner, Thomas ; Sorensen, Gregory ; Fahlbusch, Rudolf: Preoperative and intraoperative diffusion tensor imaging-based fiber tracking in glioma surgery . In: Neurosurgery 56 (2005), Nr. 1, S. 130-7 – Merhof, Dorit ; Sonntag, Markus ; Enders, Frank ; Hastreiter, Peter ; Fahlbusch, Rudolf ; Nimsky, Christopher ; Greiner, Günther: Visualization of Diffusion Tensor Data using Evenly Spaced Streamlines . In: Greiner, Günther ; Hornegger, Joachim ; Niemann, Heinrich ; Stamminger, Marc (Hrsg.) : Vision, Modeling and Visualization 2005 Proceedings (Vision, Modeling and Visualization 2005 Erlangen 16.11.-18.11.2005). Erlangen : infix, Aka GmbH, 2005, S. 257-264. ISBN 3-89838-068-8 – Nimsky, Christopher ; Ganslandt, Oliver ; Enders, Frank ; Merhof, Dorit ; Fahlbusch, Rudolf: Visualization strategies for major white matter tracts identified by diffusion tensor imaging for intraoperative use . In: Lemke, Heinz ; Inamura, Kiyonari ; Doi, Kunio ; Vannier, Michael ; Farman, Allan (Hrsg.) : Computer Assisted Radiology and Surgery (Computer Assisted Radiology and Surgery Berlin 22.-25.06.2005). Berlin : Elsevier, 2005, S. 793-797. (International Congress Series Bd. 1281) – ISBN 0-444-51872-X – Enders, Frank ; Sauber, Natascha ; Merhof, Dorit ; Hastreiter, Peter ; Nimsky, Christopher ; Stamminger, Marc: Visualization of White Matter Tracts with Wrapped Streamlines . In: IEEE (Veranst.) : Proc. IEEE Visualization 2005 (IEEE Visualization 2005 Minneapolis 23.-28.10.05). 2005, S. 51-58. – Merhof, Dorit ; Richter, Mirco ; Enders, Frank ; Hastreiter, Peter ; Ganslandt, Oliver ; Buchfelder, Michael ; Nimsky, Christopher ; Greiner, Günther: Fast and Accurate Connectivity Analysis between Functional Regions based on DTMRI . In: Medical Image Computing and Computer-Assisted Intervention (MICCAI) (Veranst.) : Medical Image Computing and Computer-Assisted Intervention (MICCAI) (Medical Image Computing and Computer-Assisted Intervention (MICCAI) Kopenhagen, Dänemark 01.-06.10.2006). Bd. 4191. Heidelberg : Springer, 2006, S. 225-233. – Merhof, Dorit ; Enders, Frank ; Hastreiter, Peter ; Ganslandt, Oliver ; Fahlbusch, Rudolf ; Nimsky, Christopher ; Stamminger, Marc: Neuronal Fiber Connections 346 based on A-Pathfinding . In: Manduca, Armando ; Amini, Amir A. (Hrsg.) : Physiology, Function, and Structure from Medical Images (SPIE Medical Imaging San Diego, CA, USA 11.-16.02.2006). Bd. 6143. 2006, S. 1S, 1-8. – Merhof, Dorit ; Sonntag, Markus ; Enders, Frank ; Nimsky, Christopher ; Hastreiter, Peter ; Greiner, Günther: Streamline Visualization of Diffusion Tensor Data based on Triangle Strips . In: Handels, Heinz ; Ehrhardt, Jan ; Horsch, Alexander ; Meinzer, Hans-Peter ; Tolxdorff, Thomas (Hrsg.) : Bildverarbeitung für die Medizin (Bildverarbeitung für die Medizin Hamburg 19.-.21.03.2006). 2006, S. 271-275. – Merhof, Dorit ; Sonntag, Markus ; Enders, Frank ; Nimsky, Christopher ; Hastreiter, Peter ; Greiner, Günther: Hybrid Visualization for White Matter Tracts using Triangle Strips and Point Sprites . In: IEEE Transactions on Visualization and Computer Graphics 12 (2006), Nr. 5, S. 1181-1188 – Nimsky, Christopher ; Ganslandt, Oliver ; Merhof, Dorit ; Sorensen, A. Gregory ; Fahlbusch, Rudolf: Intraoperative visualization of the pyramidal tract by DTIbased fiber tracking . In: Neuroimage 30 (2006), Nr. 4, S. 1219-1229 15.5.14 Verfahren zur Steigerung der Realitätsnähe der Echtzeitvisualisierung in der Fahrsimulation Projektleitung: Prof. Dr. Marc Stamminger Beteiligte: Dr. Alexander Huesmann Franz Lankes Laufzeit: 1.2.2006–31.1.2009 Auf weiten Gebieten der Forschung und Entwicklung hat sich die Simulation als Mittel zur Erkenntnisgewinnung über real ablaufende Vorgänge etabliert und bewährt. In der Automobilbranche wird die Fahrsimulation unter anderem dazu eingesetzt, prototypische Systeme, wie beispielsweise Anzeige-Bedienkonzepte kommender Produktgenerationen zu untersuchen und auf ihre Verwendbarkeit hin zu analysieren. Fahrsimulationsuntersuchungen erlauben es, die Anzahl der realen Testfahrten zu reduzieren und damit dem zunehmenden Kostendruck und den kürzer werdenden Produktzyklen der Industrie gerecht zu werden. Weiterhin lassen sich in der Simulation kritische Verkehrssituationen reproduzieren und untersuchen, ohne dabei Risiken einzugehen. Dies ist bei der Erprobung von sicherheitskritischen Systemen, wie 347 beispielsweise von Fahrerassistenzsystemen, unverzichtbar. Damit die Simulationsuntersuchungen Rückschlüsse auf die Wirklichkeit zulassen, ist es dabei unerlässlich, dass die Simulation soweit wie möglich der Realität entspricht. Da das Sehen ein wesentliches Element der menschlichen Wahrnehmung darstellt, kommt der Visualisierung in der Fahrsimulation eine bedeutende Rolle zu. In dieser Arbeit sollen echtzeitfähige Visualisierungsverfahren entwickelt und prototypisch implementiert werden, die zur Realitätssteigerung der graphischen Darstellung in der Fahrsimulation der BMW Group Forschung und Technik dienen. Dabei wurden durch Fahrversuche Verbesserungspotentiale in der bestehenden Visualisierung identifiziert und diese in Arbeitsfelder kategorisiert. Die aufgespannten Arbeitsfelder umfassen dabei folgende Punkte: Das Rendering von Terrain und Fahrbahnen, die Darstellung von Fahrzeugen, die Berechnung von Beleuchtung und Schatten sowie die Animation der Szenerie. Diese Arbeitsfelder bilden zugleich die Schwerpunkte der Themenbearbeitung. Die Entwicklung der in dieser Arbeit entwickelten Visualisierungsverfahren basiert dabei auf der Grundlage neuester Hardwaretechnologien. 15.5.15 Volumenvisualisierung für Industrie-CT-Scanner Projektleitung: Dr. rer. nat. Stefan Röttger Beteiligte: Dipl.-Inf. Michael Bauer Dr.-Ing. Martin Meister Dipl.-Inf. Oliver Scholz Dr.-Ing. Randolf Hanke Stichwörter: Materialprüfung; Qualitätskontrolle; Volumenvisualisierung; CT-Scanner Laufzeit: 1.11.2003–1.4.2006 Mitwirkende Institutionen: Fraunhofer Institut (Institut für Integrierte Schaltungen) Industrie-CT-Scanner haben als Einsatzgebiet u.a. die Materialprüfung und Genauigkeitsanalyse. Die zu prüfenden Objekte bzw. Gussteile sind normalerweise aus Materialien die bei der Rekonstruktion im CT-Scanner schwere Artefakte hervorrufen (z.B. Aluminiumdruckguss). Diese Artefakte müssen sowohl bei der Rekonstruktion als auch bei der Visualisierung herausgerechnet werden, wobei hardwarebeschleunigte Verfahren auf Standard-PC-Hardware zum Einsatz kommen. Diese Verfahren lassen sich auch zur Untersuchung von fossilen Objekten verwenden. Desweiteren eignen sich Industrie-Scanner zum Erzeugen von hochauflösenden Oberflächenmodellen. Die 348 Verschmelzung und Registrierung der CT-Daten mit optischen Daten ist Gegenstand aktueller Forschung im Rahmen der Zusammenarbeit mit dem Fraunhofer-Institut. Publikationen – 15.6 Röttger, Stefan ; Bauer, Michael ; Stamminger, Marc: Spatialized Transfer Functions . In: IEEE (Hrsg.) : Proc. EuroVis ’05 (EuroVis 2005 Leeds June 2005). 2005, S. 271-278. Studien- und Abschlussarbeiten – Studienarbeit: Higher-Dimensional Classification of Volume Data using Artificial Neural Networks Bearbeiter: Roland Frädrich (beendet am 1.1.2006) Betreuer: Dipl.-Inf. Michael Bauer; Prof. Dr. Günther Greiner – Diplomarbeit: Einsatz der Grafikkartenprogrammierung zur Verbesserung der Darstellungsqualität in der Fahrsimulation Bearbeiter: Franz Lankes (beendet am 16.1.2006) Betreuer: Prof. Dr. Marc Stamminger – Diplomarbeit: 3D-Konturvermessung mittels Laser-Lichtschnittverfahren Bearbeiter: Franz Uhrmann (beendet am 31.1.2006) Betreuer: Prof. Dr. Günther Greiner – Studienarbeit: GPU based Trimming and Rendering of Tensor Product Bezier Surfaces Bearbeiter: Quirin Meyer (beendet am 31.1.2006) Betreuer: Dipl.-Math. Gerd Sußner; Prof. Dr. Günther Greiner – Studienarbeit: Hybride Schattengenerierung mittels Shadow Maps Bearbeiter: Thomas Möck (beendet am 1.2.2006) Betreuer: Dipl.-Inf. Frank Firsching; Prof. Dr. Marc Stamminger – Diplomarbeit: Konnektivitätsanalyse zwischen funktionellen Zentren im Gehirn Bearbeiter: Mirco Richter (beendet am 15.02.2006) Betreuer: Dr.-Ing. Dorit Merhof; Prof. Dr. Günther Greiner – Master Thesis: Nichtlineare Registrierung beschleunigt mit Graphikhardware Bearbeiter: Matthias Tessmann (beendet am 01.03.2006) Betreuer: Dipl.-Inf. Frank Enders; PD Dr. Peter Hastreiter – Studienarbeit: Polycube Maps Bearbeiter: Axel Schlicker (beendet am 31.3.2006) Betreuer: Dr.-Ing. Christian Vogelgsang; Prof. Dr. Marc Stamminger 349 – Master Thesis: Spectral Volume Rendering Bearbeiter: Stefan Weigand (beendet am 13.04.2006) Betreuer: Dipl.-Inf. Frank Enders; Dr.-Ing. Dorit Merhof – Diplomarbeit: Bildbasierte Rekonstruktion von Innenräumen Bearbeiter: Frank Bauer (beendet am 5.5.2006) Betreuer: Dr.-Ing. Martin Meister; Prof. Dr. Marc Stamminger – Studienarbeit: Registrierung und Segmentierung von MR-Volumendaten mittels eines polygonalen Atlasmodells Bearbeiter: Simon Schöll (beendet am 23.5.2006) Betreuer: – Studienarbeit: Featureextraktion und Visualisierung multivariater Datensätze Bearbeiter: Rolf Richter (beendet am 24.5.2006) Betreuer: Dipl.-Inf. Frank Reck; Dipl.-Inf. Horst Hadler – Studienarbeit: Die Berücksichtigung der Solvatisierungsenergie durch explizite Berechnung der Oberflächenzugänglickeiten beim Proteindesign Bearbeiter: Alexander Maret-Huskinson (beendet am 26.05.2006) Betreuer: Dr. rer. nat. Roberto Grosso – Studienarbeit: Lichtstreuung in transluzenten Materialien Bearbeiter: Markus Reil (beendet am 31.05.2006) Betreuer: Prof. Dr. Marc Stamminger; Dipl.-Inf. Manfred Ernst – Studienarbeit: Numerische Simulation und detaillierte Analyse eines numerischen Benchmark–Testfalls Bearbeiter: Irina Fridman (beendet am 31.5.2006) Betreuer: PD Dr.-Ing. Michael Breuer; Prof. Dr. Marc Stamminger – Master Thesis: Isoflächen-basierte Generierung von Hüllen für neuronale Bahnen Bearbeiter: Ezgi Bingöl (beendet am 11.06.2006) Betreuer: Dr.-Ing. Dorit Merhof; Dr.-Ing. Martin Meister – Studienarbeit: Effizientes punktbasiertes Rendering mit hoher Darstellungsqualität Bearbeiter: Markus Weiten (beendet am 1.7.2006) Betreuer: Dr.-Ing. Carsten Dachsbacher; Prof. Dr. Marc Stamminger – Studienarbeit: GPU-basierte Netzverfeinerung Bearbeiter: Marco Staginski (beendet am 24.7.2006) Betreuer: Dipl.-Inf. Michael Schwarz – Studienarbeit: GPU-basierte Shadow Volumes Bearbeiter: Stefan Ruff (beendet am 24.07.2006) Betreuer: Dipl.-Inf. Michael Schwarz – Diplomarbeit: Erweiterte Modellierung und Visualisierung neuronaler Bahnen Bearbeiter: Simone Gaffling (beendet am 31.7.2006) Betreuer: Dipl.-Inf. Frank Enders 350 – Diplomarbeit: Bildbasiertes Modellieren Bearbeiter: Titus Miloi (beendet am 15.08.2006) Betreuer: Dipl.-Inf. Marco Winter – Diplomarbeit: Interaktives Ray-Tracing für große, dynamische Spieleszenarios Bearbeiter: Daniel Pohl (beendet am 18.8.2006) Betreuer: Prof. Dr. Marc Stamminger – Master Thesis: Oberflächenextraktion aus Segmentierten CT-Daten Bearbeiter: Sony Sara Abraham (beendet am 25.09.2006) Betreuer: Dr. rer. nat. Roberto Grosso – Master Thesis: Analytical Shape Computation of Macromolecules Through Alpha Shapes Bearbeiter: Miruna Stoenescu (beendet am 29.09.2006) Betreuer: Prof. Dr. Günther Greiner – Diplomarbeit: Optimierte Verdeckungsberechnung zur Darstellung komplexer Szenen Bearbeiter: Marcel Beister (beendet am 30.9.2006) Betreuer: Prof. Dr. Marc Stamminger; Dipl.-Inf. Manfred Ernst – Studienarbeit: Bestimmung eines Transformationsverfahrens zur Überführung von Teilaufnahmen (Punktewolken) einer Wendeschneidplatte (WSP) in ein gegebenes Koordinatensystem. Bearbeiter: Stefan Holpp (beendet am 15.10.2006) Betreuer: Dipl.-Inf. Jochen Süßmuth – Studienarbeit: Interaktive Animation und Darstellung von Bäumen Bearbeiter: Klaus Brügmann (beendet am 1.11.2006) Betreuer: Prof. Dr. Marc Stamminger – Studienarbeit: Prozedurale Synthese und Darstellung des Geländes der Technischen Fakultät Bearbeiter: Andreas Oßwald (beendet am 1.11.2006) Betreuer: Prof. Dr. Marc Stamminger – Diplomarbeit: Automatische Registrierung merkmalsarmer Oberflächen unter Verwendung von Neigungs- und Krümmungsinformation Bearbeiter: Matthias Struck (beendet am 1.12.2006) Betreuer: Dipl.-Inf. Jürgen Kaminski; Dr. Svenja Ettl (geb. Lowitzsch), Ph.D.; Prof. Dr. Marc Stamminger – Diplomarbeit: Vorberechnete Umgebungsreflexion für die Fahrsimulation Bearbeiter: Franz Lankes (beendet am 1.12.2006) Betreuer: Dipl.-Inf. Michael Schwarz; Dipl.-Inf. Franz Lankes; Prof. Dr. Marc Stamminger – Studienarbeit: Hierarchische Mesh Unterteilung Bearbeiter: Markus Gerstner (beendet am 15.12.2006) Betreuer: Dipl.-Inf. Marco Winter 351 – Diplomarbeit: Volume-Rendering of Compressed Data Bearbeiter: Roland Fraedrich (beendet am 22.12.2006) Betreuer: Dipl.-Inf. Michael Bauer; Prof. Dr. Marc Stamminger – Diplomarbeit: Globale Beleuchtungsberechnung mit Light Cuts Bearbeiter: Thomas Kemmer (beendet am 8.1.2007) Betreuer: Prof. Dr. Marc Stamminger; Dipl.Inf. Manfred Ernst – Bachelor Thesis: Interactive Soft Shadows by Backprojection Bearbeiter: Jochen Möllmer (beendet am 17.1.2007) Betreuer: Prof. Dr. Marc Stamminger – Diplomarbeit: Interaktives Volumenclipping mit beliebiger Geometrie Bearbeiter: Stephan Schroedl (beendet am 31.1.2007) Betreuer: Dipl.-Inf. Frank Enders – Studienarbeit: Merkmale und Ähnlichkeitsmaße für 3D-Objekte Bearbeiter: Michael Martinek (beendet am 31.1.2007) Betreuer: Dr. rer. nat. Roberto Grosso – Studienarbeit: Raytracing mit Hüllvolumen Hierarchien Bearbeiter: Thomas Engelhardt (beendet am 31.1.2007) Betreuer: Prof. Dr. Günther Greiner; Dipl.-Inf. Manfred Ernst – Diplomarbeit: Design and Evaluation of saliency-driven progressive audio processing — Entwurf und Evaluierung prioritätenbasierter progressiver Audioverarbeitung Bearbeiter: Thomas Möck (beendet am 1.2.2007) Betreuer: Prof. Dr. Marc Stamminger – Diplomarbeit: Untersuchung und Implementierung eines Verfahrens zur Rauschreduktion in bewegten Bildern Bearbeiter: Thomas Stocker (beendet am 1.2.2007) Betreuer: Dipl.-Inf. Oliver Scholz; Dipl.-Inf. Michael Bauer; Prof. Dr. Marc Stamminger – Diplomarbeit: Klassifikation von Proteinhauptketten Fragmenten beim Proteindesign Bearbeiter: Alexander Maret-Huskinson (beendet am 15.2.2007) Betreuer: Dr. rer. nat. Roberto Grosso – Studienarbeit: Entwicklung eines Visualisierungswerkzeugs für Simulationsdaten des PE-Segments Bearbeiter: Carsten Jurenz (beendet am 16.02.2007) Betreuer: Dipl.-Inf. Frank Enders – Diplomarbeit: Ein GPU-basiertes Filter-Framework fuer die medizinische Bildverarbeitung Bearbeiter: Daniel Heiter (beendet am 15.3.2007) Betreuer: Dipl.Inf. Frank Enders 352 – Diplomarbeit: Charakterisierung der Rektifikations- und Mischeigenschaften einer Art von Mikrokanälen auf Basis transienter 2-D-Simulationen Bearbeiter: Irina Fridman (beendet am 28.3.2007) Betreuer: Dr. Kamen Beronov – Diplomarbeit: Rekonstruktion von Gesichtern mittels Freiform-Deformation Bearbeiter: Andreas Kaiser (beendet am 2.5.2007) Betreuer: Prof. Dr. Marc Stamminger – Diplomarbeit: Algebraische Rekonstruktion für Kegelstrahl-CT in Nichtstandardkonfiguration Bearbeiter: Stefan Ruff (beendet am 30.5.2007) Betreuer: Dipl.-Inf. Michael Schwarz; Prof. Dr. Günther Greiner – Diplomarbeit: GPU-basiertes Raycasting fuer medizinische Daten Bearbeiter: Marco Staginski (beendet am 30.5.2007) Betreuer: Dipl.-Inf. Frank Enders – Diplomarbeit: Texture Synthesis from Photographs – Textursynthese aus Photographien Bearbeiter: Christian Eisenacher (beendet am 15.6.2007) Betreuer: Prof. Dr. Marc Stamminger – Studienarbeit: Beleuchtung und Echtzeitdarstellung von Wolken Bearbeiter: Michael Keberer (beendet am 29.6.2007) Betreuer: Prof. Dr. Marc Stamminger – Diplomarbeit: Graceful Anytime Interruptability for Virtual Agents Bearbeiter: Klaus Brügmann (beendet am 2.7.2007) Betreuer: Prof. Dr. Marc Stamminger – Diplomarbeit: GPU accelerated image enhancement for fiberscopes Bearbeiter: Franz Hirschbeck (beendet am 10.7.2007) Betreuer: Dipl.-Inf. Frank Enders; Dipl.-Inf. Marco Winter; Dipl.-Ing. Christian Winter – Diplomarbeit: Geometrische Kalibrierung von endoskopischen PanoramaOptiken (Greguss-Linse) Bearbeiter: Rolf Richter (beendet am 18.07.2007) Betreuer: Prof. Dr. Marc Stamminger – Studienarbeit: Optimierte glyphbasierte Diffusionstensor-Visualisierung Bearbeiter: Hannes Wilhelm Heinrich Heyder (beendet am 24.08.2007) Betreuer: Dipl.Inf. Frank Enders – Diplomarbeit: Optimized Appearance Spaces for Texture Synthesis Bearbeiter: Isabella Thomm (beendet am 1.9.2007) Betreuer: Dipl.-Inf. Frank Bauer; Prof. Dr. Marc Stamminger – Studienarbeit: Darstellung weicher Schatten mit Silhouette Plane Maps Bearbeiter: Till Rathmann (beendet am 21.09.2007) Betreuer: Prof. Dr. Marc Stamminger 353 – Studienarbeit: LOD-basierte Echtzeitdarstellung von virtueller Vegetation auf moderner Grafikhardware Bearbeiter: Christian Heckl (beendet am 2.11.2007) Betreuer: Dipl.-Inf. Sebastian Buntin; Prof. Dr. Marc Stamminger – Diplomarbeit: Optimizations for Global Illumination with Antiradiance Bearbeiter: Quirin Meyer (beendet am 5.11.2007) Betreuer: Prof. Dr. Marc Stamminger – Diplomarbeit: Bildauswahl-Algorithmen für Lichtfelder Bearbeiter: Bernhard Then (beendet am 29.11.2007) Betreuer: Dipl.-Inf. Marco Winter – Diplomarbeit: Entwicklung eines Softwarewerkzeugs zur Analyse abweichungsbehafteter Geometrie Bearbeiter: Florian Penzkofer (beendet am 12.12.2007) Betreuer: Dipl.-Inf. Stefan Wittmann; Dipl.-Inf. Marco Winter – Diplomarbeit: Wegfindungs-Algorithmen für CAD Bauteile Bearbeiter: Thomas Engelhardt (beendet am 13.12.2007) Betreuer: Dipl.-Inf. Manfred Ernst; Prof. Dr. Günther Greiner – Studienarbeit: Kalibrierung eines Tracking-Systems Bearbeiter: Oliver Blaha (beendet am 20.12.2007) Betreuer: Dipl.-Inf. Marco Winter 354 16 Professur für Informatik (Graphische Datenverarbeitung und Visualisierung) Anschrift: Am Weichselgarten 9, 91058 Erlangen Tel.: +49 9131 8529919 Fax: +49 9131 8529931 Die Professur für Graphische Datenverarbeitung und Visualisierung ist am Lehrstuhl Graphische Datenverarbeitung angesiedelt und wurde im Oktober 2002 mit Prof. Marc Stamminger besetzt. Die Forschungsarbeiten der Professur betreffen die computerbasierte Visualisierung virtueller Welten. Die Visualisierung umfasst dabei sowohl die realitätsnahe Darstellung als auch die Sichtbarmachung komplexer (geometrischer) Information. Ein wesentlicher Schwerpunkt sind dabei Methoden der virtuellen Realität, wobei der Benutzer z.B. durch Verwendung großer Stereo-Projektionsflächen ein größerer Eindruck der Immersion vermittelt wird. Methoden der virtuellen Realität stellen hohe Anforderung an Geschwindigkeit und Qualität der Darstellungen, bieten aber auch weitgehende Möglichkeiten der Interaktion des Benutzers mit der virtuellen Welt. Forschungsprojekte und Publikationen sind im Teilbereich ”Lehrstuhl für Informatik 9” eingegliedert. 16.1 Forschungsschwerpunkte • Hardware-unterstützte Computergrafik und Visualisierung • medizinische Visualisierung • virtuelle Realität • globale Beleuchtungsberechnung 355 17 Lehrstuhl für Informatik 10 (Systemsimulation) Anschrift: Cauerstraße 6, 91058 Erlangen Tel.: 09131 85 28923 Fax: 09131 85 28928 E-Mail: [email protected] Leitung: Prof. Dr. Ulrich Rüde Professor: Prof. Dr. Christoph Pflaum Sekretariat: Heike Strohm Iris Weiß Wiss. Mitarbeiter: Dipl.-Inf. Silke Bergler Dr. Wolfgang Degen Stefan Donath, M. Sc. Dipl.-Inf. Christian Feichtinger Dipl.-Inf. Christoph Freundl Jan Götz, M. Sc. Dipl.-Inf. Tobias Gradl Dipl.-Math. Britta Heubeck Klaus Iglberger, M. Sc. Dipl.-Inf. Harald Köstler Cherif Mihoubi Dipl.-Inf. Markus Stürmer Dipl. Math. Matthias Wohlmuth Ehemalige Mitarbeiter: Dr.-Ing. Benjamin Bergen Uwe Fabricius Dipl.-Math. Jochen Härdtlein Prof. Dr. Graham Horton Birgitt Hückel Frank Hülsemann, PhD Dipl.-Math. Matthias Hümmer El Mostafa Kalmoun, Ph.D. Dr.-Ing. Markus Kowarschik Dr.-Ing. Marcus Mohr Dipl.-Inf. Christian Möller 356 Rainer Rimane Dipl.-Inf. Harald Schmidt Dipl.-Inf. Nils Thürey Dipl.-Ing. Jan Treibig Nichtwissenschaftliche Mitarbeiter: Dipl.-Ing. Frank Deserno Gabriele Fleig Der Lehrstuhl für Systemsimulation (LSS) beschäftigt sich mit der Verwendung von modernen nichtstandard Architekturen und Höchstleistungsrechnern. Besonderes Interesse gilt der Entwicklung effizienter und paralleler Algorithmen. Dabei spielen objektorientierte Programmiertechniken sowie die performante Umsetzung auf Höchstleistungsrechner eine große Rolle. Die rechnergestützte Simulation realer Probleme ist ein vielseitiges Hilfsmittel in der Planung, Analyse und Optimierung von Abläufen verschiedenster Art. Obwohl die Anwendungen sehr unterschiedlich sein können, haben alle Simulationsprojekte eine gemeinsame Struktur. Nach der Festlegung der Fragestellung wird ein Modell erstellt, welches das Problem nachbildet und Antworten auf die gestellten Fragen liefern soll. Um das Modell in ein Computerprogramm umsetzen und dann simulieren zu können, müssen Kenngrößen des Problems erfasst werden. Nach Ermittlung der problemspezifischen Kenngrößen (Modellparameter) kann das Modell in ein Computerprogramm umgesetzt und anschließend simuliert werden. Wenn die Simulationsergebnisse vorliegen, müssen diese in der Regel für die Bewertung durch die Fragesteller aufbereitet werden. Der LSS konzentriert sich auf die Bereiche der Modellierung, der Entwicklung von Algorithmen und der Erstellung von Computerprogrammen für die Simulationsberechnungen. Die anderen Schritte im Simulationsprojekt verlangen entweder problemspezifisches Wissen, wie beispielsweise die Festlegung der Fragestellung sowie die Bestimmung der Modellparameter, oder sind eigenständige Themen, die auch außerhalb der Simulation zum Einsatz kommen. Ein Beispiel für letztere Kategorie ist das Gebiet der Visualisierung, das für die Aufbereitung der Simulationsergebnisse eine wichtige Rolle spielt. 17.1 Forschungsschwerpunkte Das Interessensgebiet des Lehrstuhls für Systemsimulation liegt im Bereich der kontinuierlichen Simulation und umfasst Aspekte der Modellierung, der Umsetzung eines Simulationsmodells in ein Computerprogramm und der Durchführung von Berechnungen für konkrete Anwendungen. 357 Der immer noch anhaltende Zuwachs an verfügbarer Rechenleistung wird in den Simulationsanwendungen durch zunehmend komplexere und hoffentlich realitätsnähere Modelle ausgeglichen, so dass der Bedarf an effizienten Methoden für die Simulationsberechnungen unvermindert groß ist. Eben diese effizienten Methoden und deren Implementierung sind die Forschungsschwerpunkte am Lehrstuhl 10. Besonderes Interesse gilt den sogenannten Multilevel-Verfahren, die sich durch ihre optimale algorithmische Komplexität auszeichnen. In anderen Worten, der Rechenaufwand für Multilevel-Verfahren ist direkt proportional zur Problemgröße. Damit erlauben es diese Verfahren, Probleme zu behandeln, die weit außerhalb der Reichweite anderer Ansätze liegen. Gerade auf Superrechnern und den dort bearbeiteten Problemgrößen sind Multilevel-Verfahren unverzichtbar geworden. Werden diese Verfahren jedoch mit adaptiver Verfeinerung kombiniert und auf parallelen Architekturen implementiert, so ist der Programmieraufwand beträchtlich. Neben der Weiterentwicklung der Algorithmen selbst stehen deshalb zunehmend auch Fragen des Software-Engineering im Vordergrund der Forschung. Eine rein objektorientierte Vorgehensweise, die auf Grund der Komplexität des Programmierproblems wünschenswert erscheinen mag, erfüllt (noch) nicht die Anforderungen an die Geschwindigkeit der Ausführung und wird daher durch Mischtechniken ersetzt. Neben der Entwicklung neuer Algorithmen wird auch der Einfluss der Rechnerarchitektur auf die Implementierung bekannter Verfahren untersucht. Ein Schwerpunkt besteht in der optimierten Ausnutzung der Speicherhierarchien, insbesondere Caches, wie sie moderne Architekturen aufweisen. Darüber hinaus gilt das Interesse auch dem Einsatz von vergleichsweise kostengünstigen Parallelrechnern, den sogenannten Workstationclustern, die aus vernetzten Arbeitsplatzcomputern aufgebaut werden. Neben den eher klassisch zu nennenden Diskretisierungsmethoden wie Finite Differenzen und Finite Elemente, die zu den algebraischen Gleichungssystemen führen, die es dann mit Multilevel-Techniken zu lösen gilt, werden am Lehrstuhl auch neuere Ansätze wie Lattice-Boltzmann-Methoden untersucht. Lattice-Boltzmann-Methoden haben sich bei der Berechnung von Mehrphasenproblemen als robuste und flexible Diskretisierungstechnik erwiesen. In Zusammenarbeit mit anderen Lehrstühlen, die sich auf die Anwendung dieser Techniken auf konkrete Probleme konzentrieren, wird am Lehrstuhl die effiziente Umsetzung dieser Methoden untersucht. Numerische Simulation mit Höchstleistungsrechnern Am Lehrstuhl ist auch die Professur für Informatik ”Numerische Simulation mit Höchstleistungsrechnern” angesiedelt. Für weitere Informationen wird auf die betreffenden Seiten der Arbeitsgruppe von Professor Pflaum verwiesen. 358 17.2 Forschungsrelevante apparative Ausstattung Seit November 2004 betreibt der Lehrstuhl für Systemsimulation seinen eigenen Rechnerverbund mit 52 Prozessoren für parallele numerische Simulationen. Der Rechnerverbund besteht aus neun Doppelprozessor- und acht Vierprozessormaschinen sowie einem eigenen Dateiserver. In allen Maschinen kommen AMD Opteron Prozessoren mit 2.2 GHz Taktfrequenz und 1 MB Level 2 Cache zum Einsatz. Die Vierprozessorknoten verfügen über 16 GByte und die Doppelprozessorknoten über 4 GB Hauptspeicher (DDR 333). Zwischen den Vierprozessorrechnern kommt ein Infiniband-Netz mit einer Bandbreite von 10 GBit/s zum Einsatz, während die Doppelprozessorrechner mit Gigabit-Ethernet vernetzt sind. Insbesondere die akkumulierte Hauptspeichergröße von 128 GByte, die verhältnismäßig schnelle Netzverbindung und die hohe Bandbreite der einzelnen Prozessoren zum lokalen Speicher in den Vierfachmaschinen machen den Rechnerverbund zu einer attraktiven Plattform für speicherintensive Berechnungen. 17.3 Kooperationsbeziehungen • Adam Opel GmbH, Rüsselsheim (Dr. S. Fell) • Australian National University, Canberra, Mathematics (Dr. Stals) • BASF (Heilmann) • Chalmers University of Technology, Göteborg (Prof. P. Jacobsson) • Commissariat à l’Energie Atomique, Grenoble (J. Pauchet) • DANA Sealing Products, Ulm (Dr. R. Ströbel) • Deutsches Luft- und Raumfahrtzentrum, Stuttgart (Prof. A. Friedrich) • European Commission Joint Research Center, Petten NL (G. Tsotridis) • Fraunhofer SCAI (Dr. Wienands) • IIT Delhi (Prof. Buwa) • IIT Kharagpur (Prof. Chakraborty) • InuTech GmbH, Nürnberg • LAS-CAD GmbH, München 359 • Lawrence Livermore National Laboratory (Dr. Quinlan, Dr. Falgout) • Los Alamos National Laboratory (Dr. Bergen) • LRZ München • Ludwig Maximilians Universität München, Geophysik (Bunge/Mohr) • Paul Scherer Institut, Villingen (Dr. Adelmann) • Ovidius Universität Constanta (Prof. Popa) • Ruhr Universität Bochum, Anorganische Chemie (Dr. Schmid) • SGL Tecnologies GmbH, Meitingen (P. Wilde) • Siemens, UB Med (Dr. Kowarschik, T. Pohl) • Siemens, Simulation Center, Erlangen (A. Wilhelm) • Siemens, Power Generation (Butterlin) • SOLVAY SOLEXIS S.p.A., Bollate, Italien (D. Facchi) • Technion Israel Institute of Technology, Computer Science (Prof. Yavneh) • Technische Universität München (Prof. Bode, Prof. Bungartz, Prof. Rank, Prof. Müller, Dr. Krafczyk) • Universität Münster, Institut für Biomagnetismus und Biosignalanalyse (Dr. Wolters) • Universität zu Köln, Mathematisches Institut (Dr. Wienands) • Universität Torun (Dr. R. Gruszczynski) • Universität Tel Aviv (A. Fehm) • University of Colorado, Boulder, Mathematics (Prof. McCormick, Prof. Manteuffel) • University of Houston, Computer Science (Prof. Garbey) • University of Kentucky, Computer Science (Prof. Douglas) • Volvo Technology Corporation, Göteborg (A. Grant, PhD) 360 • Zentrum für Sonnenenergie- und Wasserstoff-Forschung Baden-Württemberg, Ulm (Dr. C. Hartnig) • University of Utah, Computer Science (Prof. Johnson) Aufenthalte von Gastwissenschaftlern • Prof Arndt Poetzsch-Heffter (Univ. Kaiserslautern), 23.1.06 • Prof. C. Popa (Ovidius-Universität, Constanta, Romania, mehrmals jährlich, zuletzt 5.-11.4.2008 • Prof. Desmond Higham (Univ. of Strathclyde, Glasgow), 21.-29.3.2006 • Dr. Ben Bergen (Los Alamos National Laboratory, USA) 20.6.2006 • Prof. Arndt Bode (TU München), 22.6.2006 • Prof. Wolfgang Nagel (TU Dresden), 22.6.2006 • Christian Haase (Köln), 12.-13.7.2006 • Prof. Hans Bungartz (TU München), mehrmals, zuletzt 23.-25.11.2006 • Prof. Manfred Krafczyk (TU Braunschweig), 9.-14.10.2006 • Dr. Stefan Mayer (MSC Software), 2.11.06 • Prof. Michael Griebel (Univ. Bonn), 23.11.06 • Prof. Irad Yavneh (Technion, Haifa, Israel), 6.-9.3.2007 • Prof. Sivan Toledo (Univ. Tel Aviv, Israel) 25.-31.3.2007 • Dr. Lars Grasedyck (MPI v. Math. u. Naturwiss. Leipzig) 19.4.2007 • Dr. Carsten Wolters, mehrmals, zuletzt 19.4.2007 • Prof. Thomas Sterling (CalTech), 30.6.07 • Prof. Christian Bischof (RWTH Aachen) 30.6.2007 • Dr. Scott MacLachlan (Univ. of Minnesota) 3.7.2007 361 17.4 Wissenschaftliche Tagungen • Seminar 06071 Architectures and Algorithms for Petascale Computing, Dagstuhl, 12.02. – 17.02.2006 • 8th Workshop Parallel Systems and Algorithms (PASA 2006), Frankfurt, 16.03.2006 • Workshop Perspectives of High End Computing, Erlangen, 17.03.2006 • 77th Annual Meeting of the Gesellschaft für Angewandte Mathematik und Mechanik e.V., Berlin, 27.03. – 31.03.2006 • Photonics Europe 2006, Straßburg, 03.07. – 07.04.2006 • SIAM Conference on Imaging Science, Minneapolis, 15.05. – 17.05.2006 • 8. Forschungsseminar Wissenschaftliches Rechnen, Ulm, 17.05.2006 • International Conference on Computational Science ICCS 2006, Reading, 28.05. – 31.05.2006 • International Supercomputer Conference ISC 2006, Dresden, 27.06. – 30.06.2006 • SIAM Annual Meeting, Boston, 10.07. – 14.07.2006 • ICMMES 2006, Hampton, 25.07. – 28.07.2006 • International Conference of Applied Mathematics, Plovdiv, 12.08. – 18.08.2006 • EUROPAR 2006, Dresden, 29.08. – 01.09.2006 • ACM SIGGRAPH/Eurographics Symposium on Computer Animation, Wien, 02.09. – 04.09.2006 • Studia Logica International Conference – Trends in Logic IV, Torun, 01.09. 04.09.2006 • ECCOMAS CFD 2006, Egmond aan Zee, 05.09. – 08.09.2006 • ASIM 2006 – 19th Symposium Simulationstechnik, Hannover, 12.09. 14.09.2006 • VMV 06 – Vision, Modeling and Visualization, Aachen, 22.11. – 24.11.2006 • SIAM CS&E 2007, SIAM Conference on Computational Science and Engineering, Costa Mesa, USA, 19.02. – 23.02.2007 362 • Forschungsseminar Wissenschaftliches Rechnen, St. Augustin, 12.03.2007 • 13th Copper Mountain Conference on Multigrid Methods, Copper Mountain, USA, 19.03. – 23.03.2007 • ParCFD 07 – International Conference on Parallel Computational Fluid Dynamics, Antalya, 21.05. – 24.05.2007 • 3rd Erlangen High-End-Computing Symposium KONWIHR Results Workshop, Erlangen, 02.07.2007 • ICIAM07 – International Congress on Industrial and Applied Mathematics, Zürich, 16.07. – 20.07.2007 • ICCMES07 – The Fourth International Conference for Mesoscopic Methods in Engineering and Science, München, 16.07. – 20.07.2007 • Waves2007 – 8th International Conference on Mathematical and Numerical Aspects of Waves, Reading, UK, 23.07. – 27.07.2007 • 20th Chemnitz FEM Symposium 2007, Chemnitz, 24.09. – 26.09.2007 • Workshop High Performance and Parallel Computing, Simula Research Laboratory, Oslo, 24.10.2007 • VMV07 – Vision, Modelling, Visualization, Saarbrücken, 07.11. – 09.11.2007 • 3rd Joint HLRB and KONWIHR Result and Reviewing Workshop, Garching, 04.12.2007 17.5 Forschungsprojekte 17.5.1 Beweistheorie in der Deskriptiven Komplexitätstheorie Projektleitung: Dr. Wolfgang Degen Beginn: 1.1.2000 Für die in der Deskriptiven Komplexitätstheorie (oder Endlichen Modelltheorie) verwendeten Logiken (wie DTC, TC, Fixpunktlogiken, Logiken zweiter Stufe, Logiken mit verallgemeinerten Quantoren, etc.) gibt es keine finitären Kalküle, die die allgemeingültigen Sätze generieren; schon für FOL gibt es keinen finitären Kalkül, der alle Sätze liefert, die in allen endlichen Modellen wahr sind. 363 Dennoch existieren meistens Kalküle mit infinitären Regeln, die genau die (im Endlichen) allgemeingültigen Sätze der betreffenden Logik herleiten. Hierbei genügen bereits Anwendungen der infinitären Regeln, die eine sehr geringe komputationelle (und deskriptive!) Komplexität besitzen. Ziele des Projekts: (a) Entwicklung spezifisch beweistheoretischer Methoden zur Bestimmung der Ausdrucksstärke der betreffenden Logiken (b) Komplementierung des (semantischen) Model-Checking durch formale (eventuell infinitäre!) Herleitbarkeit. (Weiteres siehe Webseite) 17.5.2 Datenlokale Iterationsverfahren zur effizienten Lösung partieller Differentialgleichungen Projektleitung: Prof. Dr. Ulrich Rüde Prof. Dr. Arndt Bode Beteiligte: Dr. Wolfgang Karl Kowarschik, Markus Dr. Carsten Trinitis Dr. Josef Weidendorfer Treibig, Jan Dipl.-Inf. Markus Stürmer Stichwörter: Cache-optimierte Verfahren, Mehrgitter Laufzeit: 1.6.2000–30.4.2006 Förderer: DFG Mitwirkende Institutionen: Lehr- und Forschungseinheit Informatik X, Technische Universität München Kontakt: Dipl.-Inf. Markus Stürmer Tel.: +49 9131 8528677 Fax: +49 9131 8528928 E-Mail: [email protected] Die Geschwindigkeit, mit der moderne Rechnerarchitekturen arithmetische Operationen durchführen können, übertrifft bei weitem die Geschwindigkeit, mit der die 364 benötigten Daten vom Speicher dem Prozessor zugeführt werden können. Es wird häufig versucht, dieses Problem durch die Verwendung von schnellen Zwischenspeichern (Caches) zu umgehen. Um allerdings die Cache-Hierarchien möglichst effizient auszunutzen, müssen die numerischen Algorithmen an die Architektur angepasst werden. Das Ziel des Projektes ist es, Implementierungstechniken für numerische Verfahren zur Lösung partieller Differentialgleichungen zu entwickeln, die die Speicherhierarchien bestmöglich ausnutzen. Publikationen – Weiß, Christian ; Karl, Wolfgang ; Kowarschik, Markus ; Rüde, Ulrich: Memory Characteristics of Iterative Methods . In: ACM/IEEE (Veranst.) : Proceedings of the ACM/IEEE Supercomputing Conference (Supercomputing 1999 Portland November 1999). 1999, S. 1-30. – Douglas, C.C. ; Hu, J. ; Kowarschik, Markus ; Rüde, Ulrich ; Weiß, C.: Cache Optimization For Structured and Unstructured Grid Multigrid . In: Electronic Transactions on Numerical Analysis 10 (2000), S. 21-40 – Weiß, Christian ; Kowarschik, Markus ; Rüde, Ulrich ; Karl, Wolfgang: Cacheaware Multigrid Methods for Solving Poisson’s Equation in Two Dimensions . In: Computing 64 (2000), Nr. 4, S. 381-399 – Kowarschik, Markus ; Weiß, Christian ; Rüde, Ulrich: Data Layout Optimizations for Variable Coefficient Multigrid . In: Sloot, P. ; Tan, C. ; Dongarra, J. ; Hoekstra, A. (Hrsg.) : Proc. of the 2002 Int. Conf. on Computational Science (ICCS2002), Part III (International Conference on Computational Science 2002 (ICCS 2002) Amsterdam 21.-24.April 2002). Berlin : Springer, 2002, S. 642-651. (Lecture Notes in Computer Science Bd. 2331) – Kowarschik, Markus ; Rüde, Ulrich ; Thürey, Nils ; Weiß, C.: Performance Optimization of 3D Multigrid on Hierarchical Memory Architectures . In: Fagerholm, J. ; Haataja, J. ; Järvinen, J. ; Lyly, M. ; Raback, P. ; Savolainen, V. (Hrsg.) : Applied Parallel Computing (PARA 2002 Espoo Juni 2002). Berlin : Springer, 2002, S. 307-316. (Lecture Notes in Computer Science Bd. 2367) – Pohl, Thomas ; Kowarschik, Markus ; Wilke, Jens ; Iglberger, Klaus ; Rüde, Ulrich: Optimization and Profiling of the Cache Performance of Parallel Lattice Boltzmann Codes . In: Parallel Processing Letters 13 (2003), Nr. 4, S. 549-560 – Kowarschik, Markus: Data Locality Optimizations for Iterative Numerical Algorithms and Cellular Automata on Hierarchical Memory Architectures . Erlangen, FAU, Diss., 2004 (Advances in Simulation Bd. 13) . – 221 Seiten. 365 – Quinlan, D. ; Schordan, M. ; Miller, B. ; Kowarschik, Markus: Parallel ObjectOriented Framework Optimization . In: Concurrency and Computation: Practice and Experience 16 (2004), Nr. 2-3, S. 293-302 – Kowarschik, Markus ; Christadler, Iris ; Rüde, Ulrich: Towards Cache-Optimized Multigrid Using Patch-Adaptive Relaxation . Erlangen : FAU. 2004 (04-8). – Interner Bericht. 10 Seiten – Kowarschik, Markus ; Christadler, Iris ; Rüde, Ulrich: Towards Cache-Optimized Multigrid Using Patch-Adaptive Relaxation . In: Dongarra, J. ; Madsen, K. ; Wasniewski, J. (Hrsg.) : PARA 2004 Proceedings (PARA’04 WORKSHOP ON STATE-OF-THE-ART IN SCIENTIFIC COMPUTING Kopenhagen 20. – 23. Juni 2004). Berlin/Heidelberg : Springer, 2006, S. 901–910. (Lecture Notes in Computer Science Bd. 3732) – ISBN 3-540-29067-2 – Treibig, Jan ; Hausmann, Simon ; Rüde, Ulrich: Performance analysis of the Lattice Boltzmann Method on x86-64 Architectures . In: Hülsemann, Frank ; Kowarschik, Markus ; Rüde, Ulrich (Hrsg.) : 18th Symposium Simulationstechnique ASIM 2005 Proceedings (18th Symposium Simulationstechnique ASIM 2005 Erlangen 12.9. -15.9.2005). Erlangen : SCS Publishing House, 2005, S. 736–741. ISBN 3-936150-41-9 17.5.3 FreeWiHR – Simulation von Metallschäumen Projektleitung: Dr.-Ing. Carolin Körner, Akad. ORat Prof. Dr. Ulrich Rüde Beteiligte: Dipl.-Phys. Markus Oechsner Pohl, Thomas Thürey, Nils Stichwörter: Metallschaum; Lattice-Boltzmann; Strömungssimulation; freie Oberflächen Beginn: 1.1.2003 Förderer: KONWIHR Kontakt: Prof. Dr. Ulrich Rüde Tel.: 09131 85 28924 Fax: 09131 85 28928 E-Mail: [email protected] 366 Die erfolgreiche Herstellung neuer Materialien setzt in den meisten Fällen die Beherrschung sehr komplexer technologischer Prozesse voraus. Ein besonders hilfreiches Mittel bildet hierbei die numerische Simulation. Sie dient sowohl zum Studium der Prozesskontrolle als auch zur Erhöhung des Prozessverständnisses. Dabei gewinnt in den letzten Jahren die Methode der Zellularen Automaten (ZA) zunehmend an Bedeutung. Zellulare Automaten stellen eine ideale Methode dar, um physikalische Phänomene zu modellieren, die bei der Herstellung von Werkstoffen auftreten. Dazu zählen unter anderem die Ausbildung von Kornstrukturen oder von Dendriten bei einer Erstarrung. Spezialformen der ZA, wie die Lattice Gas oder Lattice Boltzmann Methode (LBM) eignen sich in hervorragender Weise zur Modellierung von Prozessen, bei denen Strömungen in komplexen, veränderlichen Geometrien auftreten. Dies sind nun genau die Situationen, die bei der Herstellung von Metallschaum oder von Verbundwerkstoffen durch Infiltration von Faser- oder Pulverpreforms auftreten. Zur Modellierung müssen sowohl beim Schaum als auch bei den Verbundwerkstoffen freie Oberflächen beschrieben werden. Für die Beschreibung freier Oberflächen im Rahmen der LBM in zwei Raumdimensionen wurde in den letzten drei Jahren am Lehrstuhl WTM erfolgreich ein Algorithmus entwickelt und implementiert. Diese erfolgversprechenden Ansätze sollen als Grundlage einer optimierten, auf drei Raumdimensionen erweiterten Modellierung übertragen werden. Allerdings führt die Erweiterung auf drei Raumdimensionen auf einen um den Faktor 1000 – 10000 höheren Rechenaufwand, der nur mit Hilfe von Höchstleistungsrechnern (HLR) in realistischen Zeiten zu bewältigen ist. Ziel des geplanten Projektes ist es daher, in einem Verbund der Lehrstühle Werkstoffkunde und Technologie der Metalle (WTM) und Informatik 10 (LSS) die Übertragung des Modells auf den HLR herzustellen. Am Lehrstuhl WTM soll dabei der Schwerpunkt auf der Entwicklung numerischer 3D-Verfahren für die Modellierung von komplexen dreidimensionalen Problemen mit freien Oberflächen auf der Grundlage der LBM liegen. Am Lehrstuhl für Systemsimulation sollen Datenstrukturen untersucht und entwickelt werden, die zum einen an die komplizierten physikalischen Strukturen, z. B. Hohlräume in Metallschäumen, angepasst sind und zum anderen die vorgegebene Hardware optimal ausnutzen (verschiedene Kommunikationsarten, Lastbalancierung, Cache-Hierarchien). Publikationen – De Sterck, H. ; Markel, R.S. ; Pohl, Thomas ; Rüde, Ulrich: A Lightweight Java Taskspaces Framework for Scientific Computing on Computational Grids . In: ACM (Veranst.) : Proceedings of the 2003 ACM Symposium on Applied 367 Computing (ACM Symposium on Applied Computing Melbourne(USA) 09.12.03.2003). 2003, S. 1024-1030. – Wilke, Jens ; Pohl, Thomas ; Kowarschik, Markus ; Rüde, Ulrich: Cache Performance Optimizations for Parallel Lattice Boltzmann Codes . In: Kosch, H. ; Böszörményi, L. ; Hellwagner, H. (Hrsg.) : Euro-Par 2003. Parallel Processing. Berlin : Springer, 2003, S. 441-450. (Lecture Notes in Computer Science Bd. 2790) – Wilke, Jens ; Pohl, Thomas ; Kowarschik, Markus ; Rüde, Ulrich: Cache Performance Optimizations for Parallel Lattice Boltzmann Codes in 2D . Erlangen : Friedrich-Alexander-Universität Erlangen-Nürnberg. 2003 (03-3). – Interner Bericht – Pohl, Thomas ; Kowarschik, Markus ; Wilke, Jens ; Iglberger, Klaus ; Rüde, Ulrich: Optimization and Profiling of the Cache Performance of Parallel Lattice Boltzmann Codes . In: Parallel Processing Letters 13 (2003), Nr. 4, S. 549-560 – Pohl, Thomas ; Kowarschik, Markus ; Wilke, Jens ; Iglberger, Klaus ; Rüde, Ulrich: Optimization and Profiling of the Cache Performance of Parallel Lattice Boltzmann Codes in 2D and 3D . Erlangen : Friedrich-Alexander-Universität Erlangen-Nürnberg. 2003 (03-8). – Interner Bericht – Thürey, Nils ; Pohl, Thomas ; Körner, Carolin ; Rüde, Ulrich: Simulation von Metallschaum mittels der Lattice-Boltzmann Methode . In: Konwihr Quartl 35 (2003), S. 4-8 – Pohl, Thomas ; Thürey, Nils ; Deserno, Frank ; Rüde, Ulrich ; Lammers, Peter ; Wellein, Gerhard ; Zeiser, Thomas: Performance Evaluation of Parallel LargeScale Lattice Boltzmann Applications on Three Supercomputing Architectures . In: IEEE/ACM (Veranst.) : Proceedings of the IEEE/ACM SC2004 Conference (Supercomputing Conference ’04 Pittsburgh 06. – 12.11.2004). 2004, S. 1-13. ISBN 0-7695-2153-3 – Körner, Carolin ; Pohl, Thomas ; Rüde, Ulrich ; Thürey, Nils ; Hofmann, Torsten: FreeWiHR — LBM with Free Surfaces . Erlangen : Friedrich-AlexanderUniversität Erlangen-Nürnberg. 2004 (04-6). – Interner Bericht. 15 Seiten 17.5.4 HHG: Hierarchische Hybride Gitter Projektleitung: Prof. Dr. Ulrich Rüde 368 Beteiligte: Dipl.-Inf. Tobias Gradl Stichwörter: Mehrgitter;Finite Elemente;parallel;Hochdots Beginn: 1.1.2006 Kontakt: Dipl.-Inf. Tobias Gradl Tel.: +49 (0) 9131 85-28690 Fax: +49 (0) 9131 85-28928 E-Mail: [email protected] HHG ist ein Mehrgitter-Löser für Finite Elemente auf unstrukturierten Gittern. Das Programm verwendet ein grobes Gitter als Eingabe und verfeinert dieses strukturiert. Die dabei entstehende reguläre Gitterstruktur ermöglicht die Verwendung äußerst speichersparender Datenstrukturen. Simulationen beeindruckender Größenordnung rücken damit in den Bereich des Machbaren. Auf dem HLRB II des LeibnizRechenzentrums München wurde auf 9170 Prozessoren ein lineares Gleichungssystem mit 300 Milliarden Unbekannten gelöst. 17.5.5 Intraoperative Simulation der Hämodynamik in Aneurysmen im menschlichen Gehirn Projektleitung: Prof. Dr. Ulrich Rüde Beteiligte: Jan Götz, M. Sc. Prof. Dr. Arnd Dörfler Dr. med. Gregor Richter Dr. Kamen Beronov Dipl.-Inf. Markus Stürmer Stichwörter: Lattice-Boltzmann Methoden; Blutfluss; Aneurysmen; Computational Fluid Dynamics; Cell Prozessor; Beginn: 1.1.2007 Mitwirkende Institutionen: Universitätsklinikum Erlangen, Neuroradiologische Abteilung Lehrstuhl für Strömungsmechanik Kontakt: Jan Götz, M. Sc. Tel.: +49 9131 85 28677 369 Fax: +49 9131 85 28928 E-Mail: [email protected] Erkrankungen des Kreislaufsystems gehören in Industrienationen, unter anderem auch in Deutschland, zu den häufigsten Todesursachen. Der LSS simuliert in Kooperation mit der neuroradiologischen Abteilung der Universitätsklinik Erlangen, dem Lehrstuhl für Strömungsmechanik und dem Lehrstuhl für Mustererkennung die hämodynamische Situation in Gefäßerweiterungen, sogenannten Aneurysmen. Dabei wird die Lattice Boltzmann Methode eingesetzt und speziell auf die Anwendung angepasst. Die berechneten Größen wie Druck, Geschwindigkeit und Scheerspannungen sollen Aufschluss über die Entstehung geben und helfen Aneurysmen gezielt zu behandeln. Um die Simulation zu beschleunigen wird das Verhalten auf Hochleistungsrechnern getestet, unter anderem auch auf dem Cell-Prozessor, der aus der Playstation 3 bekannt ist. Publikationen – Götz, Jan: Simulation of bloodflow in aneurysms using the Lattice Boltzmann method and an adapted data structure . Erlangen : FAU. 2006 (06-6). – Interner Bericht. 10 Seiten 17.5.6 Mehrgitterverfahren für ab initio Molekülardynamiksimulationen Projektleitung: Prof. Dr. Ulrich Rüde Beteiligte: Dipl.-Inf. Harald Köstler R. Schmid Stichwörter: Multigrid, Moleculardynamic Beginn: 1.1.2006 The development of efficient tools to calculate the electronic structure of molecules as well as extended systems on an ab initio level greatly enlarged the importance of theoretical simulation methods for fields like new materials research, catalysis or nanotechnology. The majority of modern computer codes for large scale systems are based on the expansion of electronic wavefunctions and densities in terms of plane waves. However, since some of the necessary integrals are evaluated in Fourier space but others can only be calculated in real space the 3D-FFT is heavily used to transform back and forth. This leads to complications for the parallelization of the approach 370 for massively parallel computer systems. The goal of this project is to provide a fast, parallel multigrid solver that deals with these problems. Publikationen – Köstler, Harald ; Schmidt, Rochus ; Rüde, Ulrich: Multigrid-Accelerated PoissonSolver for ab-initio Molecular Dynamic Applications .Vortrag: EMG 2005, TU Delft, Scheveningen, 28.9.2005 – Schmid, R. ; Tafipolsky, M. ; König, P.H. ; Köstler, Harald: Car-Parrinello molecular dynamics using real space waverfunctions . In: physica status solidi (b) 243, Issue 5 (2006), S. 1001-1015 – Köstler, Harald ; Bergler, Silke ; Rüde, Ulrich ; Schmid, Rochus: Structured Multigrid for arbitrary meshsizes with application to ab initio Moleculardynamic simulations and image processing .Vortrag: 13th Copper Mountain Conference on Multigrid Methods, Copper Mountain, USA, 19.03.2007 17.5.7 Mehrgitterverfahren in der Bildverarbeitung Projektleitung: Prof. Dr. Ulrich Rüde Beteiligte: Dipl.-Inf. Harald Köstler Popa, Constantin Kalmoun, El Mostafa Stichwörter: Optical Flow, Mehrgitterverfahren Beginn: 1.1.2002 Förderer: Internes Projekt In der Bildverarbeitung werden zunehmend partielle Differentialgleichungen zur Modellierung eingesetzt. Das hiesige Projekt befasst sich mit der Entwicklung eines Mehrgitter Frameworks für Variationsansätze wobei unter anderem Anwendungen wie z.B. Optical Flow, um Bewegungsfelder in Bildfolgen zu berechnen, Image Inpainting, um Rauschen oder Fehler in Bildern zu korrigieren oder Videos zu komprimieren, nicht-starre Registrierung von medizinischen Datensätzen, oder Tomographische Bildrekonstruktion untersucht werden. 371 In diesen Fällen können Mehrgitterverfahren gewinnbringend eingesetzt werden. Im Rahmen des Projektes wird ein Programmpaket entwickelt, das es durch eine parallele Verarbeitung auch ermöglicht, mit größeren realen medizinischen Datensätzen umzugehen. Publikationen – Kalmoun, El Mostafa ; Rüde, Ulrich: A variational multigrid for computing the optical flow . In: Ertl, Thomas ; Girod, Bernd ; Greiner, Günther ; Niemann, Heinrich ; Seidel, Hans-Peter ; Steinbach, Eckehard ; Westermann, Rüdiger (Hrsg.) : Vision Modeling and Visualization 2003. Berlin : Akademische Verlagsgesellschaft, 2003, S. 577-584. – Kalmoun, El Mostafa ; Rüde, Ulrich: A variational multigrid for computing the optical flow . Erlangen : Friedrich-Alexander-Universität Erlangen-Nürnberg. 2003 (03-4). – Interner Bericht. 9 Seiten – Kalmoun, El Mostafa ; Köstler, Harald ; Rüde, Ulrich: Parallel multigrid computation of the 3D optical flow . Erlangen : Friedrich-Alexander-Universität ErlangenNürnberg. 2004 (04-4). – Interner Bericht. 9 Seiten – Köstler, Harald ; Christadler, Iris ; Rüde, Ulrich: Robust and efficient multigrid techniques for the optical flow problem using different regularizers . Erlangen : FAU. 2005 (05-6). – Interner Bericht. 6 Seiten – Prümmer, Markus ; Köstler, Harald ; Rüde, Ulrich ; Hornegger, Joachim: A full multigrid technique to accelerate an ART scheme for tomographic image reconstruction . In: Hülsemann, Frank ; Kowarschik, Markus ; Rüde, Ulrich (Hrsg.) : 18th Symposium Simulationstechnique ASIM 2005 Proceedings (18th Symposium Simulationstechnique ASIM 2005 Erlangen 12.9. -15.9.2005). Erlangen : SCS Publishing House, 2005, S. 632–637. – ISBN 3-936150-41-9 – Popa, Constantin ; Zdunek, Rafal: Regularized ART with Gibbs Priors for Tomographic Image Reconstruction . In: Hülsemann, Frank ; Kowarschik, Markus ; Rüde, Ulrich (Hrsg.) : 18th Symposium Simulationstechnique ASIM 2005 Proceedings (18th Symposium Simulationstechnique ASIM 2005 Erlangen 12.9. 15.9.2005). Erlangen : SCS Publishing House, 2005, S. 656–661. – ISBN 3936150-41-9 – Bautu, Andrei ; Bautu, Elena ; Popa, Constantin: Tikhonov Regularization in Image Reconstruction with Kaczmarz Extended Algorithm . In: Hülsemann, 372 Frank ; Kowarschik, Markus ; Rüde, Ulrich (Hrsg.) : 18th Symposium Simulationstechnique ASIM 2005 Proceedings (18th Symposium Simulationstechnique ASIM 2005 Erlangen 12.9. -15.9.2005). Erlangen : SCS Publishing House, 2005, S. 650–655. – ISBN 3-936150-41-9 – Köstler, Harald ; Rüde, Ulrich: A General Framework for Variational Optical Flow and Image Registration Problems Based on a Robust Multigrid Solver .Vortrag: SIAM Conference on Imaging Science, SIAM, Minneapolis, Minnesota, 17.5.2006 – Köstler, Harald ; Rüde, Ulrich ; Prümmer, Marcus ; Hornegger, Joachim: Adaptive variational sinogram interpolation of sparsely sampled CT data . In: Hong Kong Baptist University (Veranst.) : Proceedings of the ICPR 2006 (International Conference on Pattern Recognition Hongkong 20.-24.08.2006). 2006, S. 1-4. – Popa, Constantin: Algebraic multigrid for general inconsistent linear systems: Preliminary results . Erlangen : FAU. 2006 (06-2). – Interner Bericht. 16 Seiten – Köstler, Harald ; Popa, Constantin ; Rüde, Ulrich: Algebraic multigrid for general inconsistent linear systems: The correction step . Erlangen : F. 2006 (06-4). Interner Bericht. 10 Seiten – Zheng, Yuanfang ; Köstler, Harald ; Thürey, Nils ; Rüde, Ulrich: Enhanced Motion Blur Calculation with Optical Flow . In: Aka GmbH (Hrsg.) : RWTH Aachen (Veranst.) : Proceedings of Vision, Modeling and Visualization 2006 (Vision, Modeling and Visualization Aachen 22. – 24. Nov 2006). Aachen : IOS Press, 2006, S. 253–260. – ISBN Erscheinungsjahr – Köstler, Harald ; Rüde, Ulrich: Including Landmark Based Information in Optical Flow Problems .Vortrag: 77th Annual Meeting of the Gesellschaft fürAngewandte Mathematik und Mechanik e.V., GAMM, Berlin, 30.03.2006 – Kalmoun, E.M. ; Köstler, Harald ; Rüde, Ulrich: 3D optical flow computation using a parallel variational multigrid scheme with application to cardiac C-arm CT motion . In: Image Vision Comput 25 (2007), Nr. 9, S. 1482–1494 – Stürmer, Markus ; Köstler, Harald ; Rüde, Ulrich: A fast full multigrid solver for applications in image processing .Vortrag: 13th Copper Mountain Conference on Multigrid Methods, Copper Mountain, USA, 19.03.2007 373 17.5.8 Parallele Löser und effiziente Diskretisierungsmethoden für bioelektrische Feldberechnungen Projektleitung: Prof. Dr. Ulrich Rüde Beteiligte: Dipl.-Inf. Christoph Freundl Möller, Christian Dipl.-Inf. Harald Köstler Härdtlein, Jochen Dr. rer. nat. Carsten Wolters Stichwörter: inverse problems; multigrid; singularities; bioelectric field problem Beginn: 1.1.2006 Kontakt: Dipl.-Inf. Harald Köstler Tel.: 09131 85 28359 Fax: 09131 85 28928 E-Mail: [email protected] The reconstruction of the bioelectric field in the human brain from non-invasive measurements like electroencephalographic recordings (EEG) has the potential to become a powerful tool in neurology. From a mathematical point of view, the reconstruction can be considered as an inverse problem, which can be solved by repeated numerical simulations of the potential distribution, that we call forward problem, for assumed dipolar current sources in the brain. The sources to be localized during the inverse problem and to be modeled in the forward problem are electrolytic currents within the dendrites of the large pyramidal cells of activated neurons in the cortex sheet of the human brain. The resulting primary current is generally formulated as a mathematical dipole. In our project we are interested in the modelling of the mathematical dipoles and the efficient solution of the forward and inverse problem. Publikationen – Köstler, Harald: An accurate multigrid solver for computing singular solutions of elliptic problems . In: The Center for Applied Scientific Computing-Lawrence ; Livermore National Laboratory ; Los Alamos National Laboratory ; Front Range Scientific Computations, Inc. (Veranst.) : Abstracts Of the 12th Copper Mountain 374 Conference on Multigrid Methods (12th Copper Mountain Conference on Multigrid Method Copper Mountain 3.4.2005 – 8.4.2005). 2005, S. 1-11. – Köstler, Harald: Extrapolation Techniques for Computing Accurate Solutions of Elliptic Problems with Singular Solutions .Vortrag: 12th Copper Mountain Conference on Multigrid Methods, Copper Mountain, 07.04.2005 – Freundl, Christoph ; Köstler, Harald: Using ParExPDE for the numerical solution of bioelectric field problems . In: Hülsemann, Frank ; Kowarschik, Markus ; Rüde, Ulrich (Hrsg.) : 18th Symposium Simulationstechnique ASIM 2005 Proceedings (18th Symposium Simulationstechnique ASIM 2005 Erlangen 12.9. -15.9.2005). Erlangen : SCS Publishing House, 2005, S. 89–94. – ISBN 3-936150-41-9 – Köstler, Harald ; Rüde, Ulrich: An accurate multigrid solver for computing singular solutions of elliptic problems . In: Numerical Linear Algebra with Applications 13 (2006), Nr. 2-3, S. 231-249 – Mohr, Marcus ; Popa, Constantin ; Rüde, Ulrich: Analysis of a Preconditioned CG Method for an Inverse Bioelectric Field Problem . In: Ion, Stelian ; Marinoschi, Gabriela ; Popa, Constantin (Hrsg.) : Mathematical Modelling of Environmental and Life Sciences Problems (Proc. of 4th workshop, Sept 2005, Constanta, Romania) (4th Workshop on Mathematical Modelling of Environmental and Life Sciences Problems Constanta, Romania Sept 2005). Bukarest : Editura Academiei Romane, 2006, S. 135–146. – ISBN 976-27-1358-5 17.5.9 ParExPDE II – Effiziente objekt-orientierte Mehrgitterverfahren und Anwendungen Projektleitung: Prof. Dr. Ulrich Rüde Prof. Dr. Christoph Pflaum Beteiligte: Dipl.-Inf. Christoph Freundl Stichwörter: partielle Differentialgleichung; Parallelisierung; Hochleistungsrechnen Beginn: 1.11.2003 Kontakt: Dipl.-Inf. Christoph Freundl Tel.: 09131 85 28676 Fax: 09131 85 28928 375 Expression Templates; E-Mail: [email protected] Im Rahmen des von KONWIHR geförderten Projektes Par-EXPDE entstand eine Bibliothek für die numerische Behandlung von partiellen Differentialgleichungen. Diese Bibliothek zeichnet sich durch ihre Benutzerfreundlichkeit aus, während die mit ihr erstellten Programme dank der Verwendung sog. Expression Templates sehr effizient bzgl. der Ausführungsgeschwindigkeit sind. Desweiteren ermöglicht sie eine für den Anwender transparente Parallelisierung für die Benutzung auf Hochleistungsrechnern oder Clustern von Workstations. Ziel des Projektes ist die weitergehende Entwicklung der Bibliothek im Hinblick auf Anwendungen in den Bereichen: • Simulation von Festkörperlasern • Berechnung bioelektrischer Felder • Simulation von Nanopartikeln Publikationen – Freundl, Christoph ; Bergen, Benjamin ; Hülsemann, Frank ; Rüde, Ulrich: Expression Templates and Advanced PDE Software Design on the Hitachi SR8000 . Erlangen : Friedrich-Alexander-Universität Erlangen-Nürnberg. 2004 (04-7). Interner Bericht. 14 Seiten – Freundl, Christoph ; Bergen, Benjamin ; Hülsemann, Frank ; Rüde, Ulrich: ParEXPDE: Expression Templates and Advanced PDE Software Design on the Hitachi SR8000 . In: Bode, A. ; Durst, Franz (Hrsg.) : High Performance Computing in Science and Engineering, Garching 2004 (KONWIHR Results Workshop Garching 14.10.-15.10.2004). Berlin/Heidelberg : Springer, 2005, S. 167-179. ISBN 3-540-26145-1 – Freundl, Christoph ; Köstler, Harald: Using ParExPDE for the numerical solution of bioelectric field problems . In: Hülsemann, Frank ; Kowarschik, Markus ; Rüde, Ulrich (Hrsg.) : 18th Symposium Simulationstechnique ASIM 2005 Proceedings (18th Symposium Simulationstechnique ASIM 2005 Erlangen 12.9. -15.9.2005). Erlangen : SCS Publishing House, 2005, S. 89–94. – ISBN 3-936150-41-9 376 17.5.10 Verbesserung der Zuverlässigkeit von Computersimulationen bei der Vorhersage von Umweltrisiken Projektleitung: Prof. Marc Garbey Beteiligte: Dr. Yuri Vassilevski Rainer Keller Stichwörter: Grid computing; Reaktion-Konvektion-Diffusion Laufzeit: 1.8.2004–31.7.2006 Förderer: NATO parallele Mehrgitterverfahren; Dieses Projekt beschäftigt sich mit einem Spezialfall des Grid Computing, nämlich der numerischen Simulation auf Clustern von Clustern. Jeder beteiligte Rechner für sich ist mehr oder minder homogen, insgesamt ist der Verbund jedoch heterogen, sowohl in der Rechnerarchitektur als auch in der Vernetzung. Insbesondere die erheblichen Unterschiede zwischen den internen Netzen und der besonders langsamen Verbindung zwischen den Clustern müssen im Programmentwurf und in der Implementierung berücksichtigt werden, um die gebündelte Rechenleistung für eine Anwendung nutzbar zu machen. Ähnlich wie im Dime-Projekt, wo Verfahren und Programmiertechniken für tiefe Speicherhierarchien untersucht werden, sind auch hier die Zugriffszeiten auf Informationen nicht homogen, sondern verhältnismäßig schnell innerhalb eines Verbundes und im Vergleich dazu (sehr) langsam zwischen den Verbünden. Es ist daher offensichtlich, dass Verfahren, die für homogene Parallelrechner entworfen wurden, angepasst werden müssen, um den Unterschieden in der Vernetzung Rechnung zu tragen. Die Unterschiede in der Rechenleistung können durch eine geeignete Partitionierung (Lastverteilung) leicht berücksichtigt werden. Das Projekt umfasst sowohl Programmentwurf als auch -implementierung. Der Entwurf geeigneter Algorithmen konzentriert sich auf die Beschleunigung von Gebietszerlegungsverfahren durch Extrapolationstechniken. Bei der Implementierung kommt die vom Stuttgarter Partner entwickelte MPI-Variante PACX-MPI zum Einsatz. Das Projekt betreibt einen Verbund von Parallelrechnern in Houston, Stuttgart und Erlangen und hat erste Programmläufe erfolgreich durchgeführt. 377 17.5.11 waLBerla Projektleitung: Prof. Dr. Ulrich Rüde Beteiligte: Klaus Iglberger, M. Sc. Stefan Donath, M. Sc. Dipl.-Inf. Christian Feichtinger Jan Götz, M. Sc. Beginn: 1.1.2007 Kontakt: Dipl.-Inf. Christian Feichtinger Tel.: 09131 85 28687 Fax: 09131 85 28928 E-Mail: [email protected] In den letzten Jahren hat die Lattice-Boltzmann-Methode den Ruf einerechten Alternative zum klassischen Navier-Stokes-Ansatz zur Simulation von Strömungen bekommen. Aufgrund dieser Entwicklung und aufgrund der Vielzahl von LatticeBoltzmann-Anwendungen an unserem Lehrstuhl wuchs der Wunsch nach einer gemeinsamen Lattice-Boltzmann-Implementierung. Aus diesem Grundgedanken entstand das waLBerla-Projekt, ein einzelner Lattice-Boltzmann-Löser für eine große Anzahl verschiedener Anwendungen. Neben den grundlegenden Anforderungen der einfachen Anpassbarkeit und Erweiterbarkeit für neue strömungsmechanische Probleme, zielt das waLBerla-Projekt auch auf physikalische Korrektheit, High Performance und eine einfache, intuitive Anwendung ab. waLBerla soll dabei eine zahlreiche Funktionen umfassende Lösung für eine einfache Entwicklung neuer Strömungssimulationsanwendungen sein. Aus diesem Grund soll es die Anforderungen von Forschern, Code-Optimierern und Softwareentwicklern erfüllen und zudem Ergebnisse für industrielle Zwecke liefern können. Die momentan geplante, finale Version von waLBerla wird eine Reihe von physikalischen Anwendungen enthalten, die bereits von unserer Forschungsgruppe untersucht wurden: • Fluid in beliebig komplexen Geometrien mit komplexen Randbedingungen, wie z.B. periodische Randbedingungen, Beschleunigung, no-slip und free-slip, um medizinische Anwendungen, wie z.B. Blutfluss in Adern unterstützen zu können • Fluid-Struktur-Interaktion um bewegte Partikel in einer 378 Strömung simulieren zu können, was die Berechnung der Kräfte zwischen Partikeln und Fluid und die Simulation der Partikelbewegungen beinhaltet -Die Simulation von Flüssigkeiten mit freien Oberflächen, verursacht von sowohl Blasen als auch der Atmosphäre, um z.B. das Aufsteigen und die Deformation von Blasen zu simulieren • ionisiertes Fluid, das auf elektrische Felder von Ladungen oder geladenen Kolloiden reagiert Publikationen – Götz, Jan ; Donath, Stefan ; Feichtinger, Christian ; Iglberger, Klaus ; Rüde, Ulrich: Concepts of waLBerla Prototype 0.0 . Erlangen : FAU. 2007 (07-4). – Interner Bericht. 13 Seiten – Feichtinger, Christian ; Götz, Jan ; Donath, Stefan ; Iglberger, Klaus ; Rüde, Ulrich: Concepts of waLBerla Prototype 0.1 . Erlangen : Friedrich-AlexanderUniversität Erlangen-Nürnberg. 2007 (07-10). – Interner Bericht. 28 Seiten – Donath, Stefan ; Götz, Jan ; Feichtinger, Christian ; Iglberger, Klaus ; Bergler, Silke ; Rüde, Ulrich: On the Resource Requirements of the Hyper-Scale waLBerla Project . Erlangen : Friedrich-Alexander-Universität. 2007 (07-13). – Interner Bericht. 13 Seiten 17.6 Projektunabhängige Publikationen – Binder, Christian ; Feichtinger, Christian ; Schmid, H.-J. ; Thürey, Nils ; Peukert, Wolfgang ; Rüde, Ulrich: Simulation of the Hydrodynamic Drag of Aggregated Particles . In: Journal of Colloid and Interface Science 301, Issue 1 (2006), S. 155– 167 – Gradl, Tobias ; Spoerl, Andreas ; Huckle, Thomas ; Glaser, Steffen J. ; Schulte-Herbrueggen, Thomas: Parallelising Matrix Operations on clusters for an Optimal-Control based Quantum Compiler . In: Nagel, Wolfgang ; Walter, Wolfgang ; Lehner, Wolfgang (Hrsg.) : Euro-Par 2006 – Parallel Processing (EuroPar 2006 Dresden 29.8. – 1.9.). Berlin/Heidelberg/New York : Springer, 2006, S. 751– 762. (Lecture Notes in Computer Science Bd. 4128) – ISBN 3-540-37783-2 – Iglberger, Klaus: Simulation of moving Particles with the Lattice Boltzmann Method in 3D .Vortrag: The Third International Conference for Mesoscopic Methods in Engineering and Science (ICMMES), Hampton, Virginia (USA), 27.07.2006 379 – Köstler, Harald ; Möller, Christian ; Deserno, Frank: Performance Results for Optical Flow on an Opteron Cluster Using a Parallel 2D/3D Multigrid Solver . Erlangen : FAU. 2006 (06-5). – Interner Bericht. 27 Seiten – Nitsure, Aditya ; Iglberger, Klaus ; Rüde, Ulrich ; Feichtinger, Christian ; Wellein, Gerhard ; Hager, Georg: Optimization of Cache Oblivious Lattice Boltzmann Method in 2D and 3D . In: Becker, Matthias ; Szczerbicka, Helena (Hrsg.) : Simulationstechnique – 19th Symposium in Hannover, September 2006 (ASIM 2006 – 19. Symposium Simulationstechnik Hannover 12. – 14. 09. 2006). Erlangen : SCS Publishing House, 2006, S. 265–270. (Frontiers in Simulation Bd. 16) – ISBN 3-936150-49-4 – Stürmer, Markus ; Treibig, Jan ; Rüde, Ulrich: Optimizing a 3D Multigrid Algorithm for the IA-64 Architectire . In: Becker, Matthias ; Szczerbicka, Helena (Hrsg.) : Simulationstechnique – 19th Symposium in Hannover, September 2006 (ASIM 2006 – 19. Symposium Simulationstechnik Hannover 12. – 14. 09. 2006). Bd. 16. Erlangen : SCS Publishing House, 2006, S. 271–276. (Frontiers in Simulation) – ISBN 3-936150-49-4 – Thürey, Nils ; Rüde, Ulrich ; Stamminger, Marc: Animation of Open Water Phenomena with coupled Shallow Water and Free Surface Simulation . In: Cani, M.P. ; O’Brien, J. (Hrsg.) : Proceedings of the 2006 Eurographics/ACMSIGGRAPH Symposium on Computer Animation (ACM SIGGRAPH/Eurographics Symposium on Computer Animation Wien 02. – 04.09. 2006). 2006, S. 157–166. – Thürey, Nils ; Keiser, R. ; Pauly, M. ; Rüde, Ulrich: Detail-Preserving Fluid Control . In: Cani, M.P. ; O’Brien, J. (Hrsg.) : Proceedings of the 2006 Eurographics/ACMSIGGRAPH Symposium on Computer Animation (ACM SIGGRAPH/Eurographics Symposium on Computer Animation Wien 02. – 04.09. 2006). 2006, S. 7–15. – Thürey, Nils: Fluid Simulation with Blender . In: Dr. Dobbs Journal (2006), Nr. 1, S. 1 – Thürey, Nils ; Iglberger, Klaus ; Rüde, Ulrich: Free Surface Flows with Moving and Deforming Objects for LBM . In: Aka GmbH (Hrsg.) : RWTH Aachen (Veranst.) : Proceedings of Vision, Modeling and Visualization 2006 (Vision, Modeling and Visualization Aachen 22. – 24. Nov 2006). Aachen : IOS Press, 2006, S. 193–200. – ISBN 3-89838-081-5 – Thürey, Nils ; Pohl, Thomas ; Rüde, Ulrich ; Oechsner, Markus ; Körner, Carolin: Optimization and Stabilization of LBM Free Surface Flow Simulations using Adaptive Parameterization . In: Computers and Fluids 35 (2006), Nr. 8-9, S. 934-939 380 – Treibig, Jan ; Bergler, Silke ; Rüde, Ulrich: ORCAN: A platform for complex parallel simulation software . In: Karl, W. ; Becker, J. ; Großpietsch, K.-E. ; Hochberger, C. ; Maehle, E. (Hrsg.) : ARCS 2006 – 19th International Conference on Architectureof Computing Systems, Workshops Proceedings, March 16, 2006,Frankfurt am Main, Germany (8th Workshop ’Parallel Programs and Algorithms’ Frankfurt 16.03.2006). 2006, S. 295-304. – ISBN 3-88579-175-7 – Wellein, Gerhard ; Zeiser, Thomas ; Hager, Georg ; Donath, Stefan: On the single processor performance of simple Lattice Boltzmann kernels . In: computers & fluids 35 (2006), S. 910–919 – Köstler, Harald ; Mohr, Marcus ; Rüde, Ulrich: Generation of Coarse-Grid Approximations for Systems of PDEs with Discontinuous Coefficients .Vortrag: International Congress on Industrial and Applied Mathematics, Zürich, 20.07.2007 – Köstler, Harald ; Stürmer, Markus ; Freundl, Christoph ; Rüde, Ulrich: PDE based Video Compression in Real Time . Erlangen : F. 2007 (07-11). – Interner Bericht. 14 Seiten – Mayer, Markus ; Borsdorf, Anja ; Köstler, Harald ; Hornegger, Joachim ; Rüde, Ulrich: Nonlinear Diffusion vs. Wavelet Based Noise Reduction in CT Using Correlation Analysis . In: Lensch, H.P.A. ; Rosenhahn, B. ; Seidel, H.-P. ; Slusallek, P. ; Weickert, J. (Hrsg.) : Vision, Modeling, and Visualization 2007 (Vision, Modeling, and Visualization 2007, VMV07 Saarbrücken 07.–09. Nov). 2007, S. 223232. – ISBN 978-3-940739-00-1 – Popa, Constantin: A hybrid Kaczmarz – Conjugate Gradient algorithm . Erlangen : FAU. 2007 (07-2). – Interner Bericht. 10 Seiten – Popa, Constantin ; Rüde, Ulrich: Algebraic multigrid for general inconsistent linear systems: theoretical and experimental aspects . Erlangen : F. 2007 (07-14). Interner Bericht. 17 Seiten – Stürmer, Markus ; Köstler, Harald ; Rüde, Ulrich: A fast full multigrid solver for applications in image processing . Erlangen : FAU. 2007 (07-6). – Interner Bericht. 14 Seiten – Stürmer, Markus: Fluid Simulation using the Lattice Boltzmann Method on the Cell Processor .Vortrag: Einladung, Zentralinstitut für Angewandte Mathematik des Forschungszentrum Jülich, Jülich, 11.04.2007 – Thürey, Nils ; Pohl, Thomas ; Rüde, Ulrich: Hybrid Parallelization Techniques for Lattice Boltzmann Free Surface Flows . In: Tuncer, I.H. (Hrsg.) : Parallel 381 CFD 2007 (published on CD) (International Conference on Parallel Computational Fluid Dynamics Antalya, Turkey 21. – 24.5.2007). Antalya : Asterya Congress Services, 2007, S. 040-1–040-8. – ISBN 978-975-429-261-9 – Thürey, Nils ; Pohl, Thomas ; Rüde, Ulrich: Parallelization Techniques for LBM Free Surface Flows using MPI and OpenMP .Vortrag: The Fourth International Conference for Mesoscopic Methods in Engineering and Science (ICMMES), München, 18.07.2007 – Thürey, Nils: Physically based Animation of Free Surface Flows with the Lattice Boltzmann Method . Erlangen, FAU, Diss., 2007. – 145 Seiten. 17.7 Studien- und Abschlussarbeiten – Bachelor Thesis: Improving computational efficiency of Lattice Boltzmann methods on complex geometries Bearbeiter: Johannes Habich (beendet am 14.02.2006) Betreuer: Dr. Georg Hager; Dr. rer. nat. Gerhard Wellein; Dipl.-Ing. Thomas Zeiser; Prof. Dr. Ulrich Rüde – Master Thesis: Analysis of data transfer methods between non-matching meshes in multiphysics simulation. Bearbeiter: Ahmed Faisal (beendet am 15.2.2006) Betreuer: Dipl.-Ing. Jan Treibig – Studienarbeit: Momentum Calculation forParticle Agglomerate Connections” Bearbeiter: Dominik Geuss (beendet am 23.02.2006) Betreuer: Dipl.-Inf. Nils Thürey; Klaus Iglberger, M. Sc. – Diplomarbeit: Analyse und Simulation von Komponenten der Messhardware eines OFET-Testsystems in VHDL-AMS Bearbeiter: Florian E.J. Fruth (beendet am 28.02.2006) Betreuer: Prof. Dr. Christoph Pflaum – Diplomarbeit: Optimierung des Mehrgitteralgorithmus auf IA64 Rechnerarchitekturen Bearbeiter: Markus Stürmer (beendet am 02.05.2006) Betreuer: Dipl.Ing. Jan Treibig; Prof. Dr. Ulrich Rüde – Master Thesis: Improved Curvature Calculation and Surface Reconstruction forFree-Surface Fluid Simulations Bearbeiter: Fabian Wein (beendet am 19.05.2006) Betreuer: Dipl.-Inf. Nils Thürey; Prof. Dr. Marc Stamminger – Master Thesis: Towards a Variational Approach to Regularized Tomographic Reconstruction Bearbeiter: Stefan Schneider (beendet am 19.05.2006) Betreuer: Prof. Dr.-Ing. Joachim Hornegger; Dipl.-Inf. Marcus Prümmer; Prof. Dr. Ulrich Rüde; Dipl.-Inf. Harald Köstler 382 – Master Thesis: Pricing Bermudans and American Options with Transform Method Bearbeiter: Fang Fang (beendet am 30.5.2006) Betreuer: Dipl.-Inf. Harald Köstler – Diplomarbeit: Simulation of Moving Charged Colloids with the Lattice Boltzmann Method Bearbeiter: Christian Feichtinger (beendet am 01.06.2006) Betreuer: Dipl.-Inf. Nils Thürey; Klaus Iglberger, M. Sc. – Master Thesis: Numerical Simulation of Blood Flow with Lattice Boltzmann Methods Bearbeiter: Jan Götz (beendet am 13.07.2006) Betreuer: Klaus Iglberger, M. Sc. – Diplomarbeit: A Variational Approach for Videocompression Bearbeiter: Patrick Münch (beendet am 17.07.2006) Betreuer: Dipl.-Inf. Harald Köstler – Master Thesis: Implementation and optimization of a cache-oblivious LatticeBoltzmann algorithm Bearbeiter: Aditya Nitsure (beendet am 01.08.2006) Betreuer: Klaus Iglberger, M. Sc. – Master Thesis: Multigrid methods for non-rigid image registration Bearbeiter: Zongying Mou (beendet am 08.08.2006) Betreuer: Prof. Dr.-Ing. Joachim Hornegger; Jingfeng Han, M. Sc.; Dipl.-Inf. Harald Köstler; PD Dr. med. Wolfgang Römer – Bachelor Thesis: Modellierung der Stromverdrängung im Läuferkreis einer Asynchronmaschine für die Simulation im Zeitbereich Bearbeiter: Sabrina Bauer (beendet am 01.09.2006) Betreuer: Prof. Dr. Christoph Pflaum – Master Thesis: A Multigrid Conjugate Gradient Methods Bearbeiter: Sudarsan N.S. Acharya (beendet am 30.09.2006) Betreuer: Prof. Dr. Christoph Pflaum – Diplomarbeit: Mehrgitterverfahren für beliebige Gitterweiten mit Anwendung in der Quantenchemie Bearbeiter: Silke Bergler (beendet am 08.01.2007) Betreuer: Dipl.-Inf. Harald Köstler – Diplomarbeit: Definierbarkeit und Entscheidbarkeit in Funktionenkörpern Bearbeiter: Arno Fehm (beendet am 02.02.2007) Betreuer: Dr. Wolfgang Degen – Diplomarbeit: Geometrieprimitive und Dreiecksgitter für die pe Physikengine Bearbeiter: Martin Ketzer (beendet am 26.03.2007) Betreuer: Klaus Iglberger, M. Sc.; Prof. Dr. Ulrich Rüde – Bachelor Thesis: Strukturmechanikberechnungen in der Lasersimulation Bearbeiter: Kristina Pickl (beendet am 10.05.2007) Betreuer: Prof. Dr. Christoph Pflaum 383 – Diplomarbeit: Rigid body collisions Bearbeiter: Hannes Wengenroth (beendet am 16.05.2007) Betreuer: Klaus Iglberger, M. Sc.; Prof. Dr. Ulrich Rüde – Master Thesis: Pricing Options with Dividends: Using Jumps in Stochastic Volatility Models Bearbeiter: Zheng Han (beendet am 08.07.2007) Betreuer: Prof. Dr. Ulrich Rüde – Studienarbeit: Frictional Rigid Body Dynamics Bearbeiter: Tobias Preclik (beendet am 16.8.2007) Betreuer: Klaus Iglberger, M. Sc. – Diplomarbeit: MPI-Model-Checking in C-Programmen Bearbeiter: Christian Iwainsky (beendet am 27.08.2007) Betreuer: Prof. Dr. Christoph Pflaum – Master Thesis: Finite-Difference Time-Domain Method for Simulation of Electromagnetic Waves in Thin-Film Solar Cells Bearbeiter: Zhabiz Rahimi (beendet am 03.09.2007) Betreuer: Prof. Dr. Christoph Pflaum – Bachelor Thesis: A validation tool for computational fluid dynamics solvers Bearbeiter: Björn Gmeiner (beendet am 30.10.2007) Betreuer: Stefan Donath, M. Sc. – Studienarbeit: Ein Entscheidungsverfahren für die Presburger Arithmetik Bearbeiter: Stefan Baur (beendet am 30.11.2007) Betreuer: Dr. Wolfgang Degen 384 18 Professur für Informatik (Numerische Simulation mit Höchstleistungsrechnern) Die Professur für Informatik ”Numerische Simulation mit Höchstleistungsrechnern” wurde im Juni 2003 eingerichtet. Die Forschung dieser Professur betrifft einerseits grundlegende Techniken zur Implementierung paralleler Algorithmen auf Höchstleistungsrechnern, andererseits auch die numerische Simulation in Bezug auf verschiedene technische Anwendungen. Damit Höchstleistungsrechner schneller zur numerischen Simulation konkreter Anwendungen genutzt werden können, ist es wichtig, Bibliotheken zu entwickeln, welche die Implementierung von numerischen Algorithmen auf Höchstleistungsrechnern erleichtern. Erreicht werden kann dies zum Beispiel durch die Verwendung von C++ und Expression Templates. Die Entwicklung von Bibliotheken muss jedoch immer im Hinblick auf konkrete Anwendungen geschehen. Beispiele solcher Anwendungen sind die numerische Simulation von Teilchenbeschleunigern und numerische Simulationen im Bereich der Photonik, wie zum Beispiel die Simulation von Lasern. Laser werden in vielen technischen Anwendungen benötigt. Die Simulation von Lasern ist sehr komplex, so dass es es zur Zeit noch kein Simulationsprogramm gibt, welches das zeitliche und dreidimensionale Verhalten von Lasern simulieren kann. Deshalb ist es notwendig, neue Verfahren zur Simulation von Lasern zu entwickeln, die eine genaue Analyse und damit eine Optimierung der Qualität von Lasern ermöglichen. 18.1 Forschungsschwerpunkte • Lasersimulation • Simulation von Teilchenbeschleunigern • Hochleistungsrechnen 18.2 Kooperationsbeziehungen • Infineon, München (Dr. Steinle) • LAS-CAD GmbH, München • Lawrence Berkeley National Laboratory (Dr. Ryan) • Lawrence Livermore National Laboratory (Dr. Falgout) • Paul Scherer Institut, Villingen (Dr. Adelmann) 385 18.3 Forschungsprojekte 18.3.1 Expression Templates für partielle Differentialgleichungen Projektleitung: Prof. Dr. Christoph Pflaum Beteiligte: Dipl.-Math. Jochen Härdtlein Stichwörter: Template, partielle Differentialgleichungen (PDE) Laufzeit: 1.3.2003–1.3.2006 Förderer: DFG Kontakt: Prof. Dr. Christoph Pflaum Tel.: 09131-85-28692 Fax: 09131-85-28928 E-Mail: [email protected] Expression Templates (ET) sind eine Programmiertechnik in der Sprache C++, die es durch sehr effizientes Überladen von Operatoren ermöglicht, eine sehr performante und benutzerfreundliche Bibliothek zu implementieren. Im Rahmen eines DFG-Projektes wurden unter anderem die sogenannten Fast ET entwickelt, die noch bestehende Performance-Probleme von ET auf Höchstleistungsrechnern lösen. Dabei wird die Auswertung und Speicherung der Konstrukte auf die Template-Typen beschränkt, was jedoch dazu führt, dass der Benutzer eine Template-Nummerierung seiner Variablen durchführen muss. Diese Implementierung führt dazu, dass man mathematische Anwendungen immer noch sehr schnell und einfach programmieren kann, die Performance aber der des vergleichbaren C-Codes entspricht. Als Anwendung von (Fast) ET wurde eine C++-Bibliothek geschrieben, welche die lokalen Steifigkeitsmatrizen berechnet, die bei der Finite Elemente Methode entstehen. COLSAMM (Computation of Local Stiffness and Mass Matrices) bietet eine Benutzerschnittstelle, die eine direkte Implementierung von der schwachen Form einer PDE bietet. Es können ein- bis dreidimensionale Probleme berechnet werden, ebenso verschiedene Randbedingungen. Weiter bietet COLSAMM die Möglichkeit, eigene Finite Elemente selbst zu programmieren und somit ohne große Änderungen z.B. höhergradige Basis-Funktionen oder isoparametrische Elemente zu realisieren. Zur weiteren Benutzung von ETs soll eine generelle Problemlösung für allgemeinere PDEs angegangen werden. Wir interessieren uns in diesem Rahmen für komplexere Finite Elemente, für vektorwertige Ansätze und für Systeme von PDEs. 386 18.3.2 Innovatives Netzwerk:Simulation und Optimierung innovativer Lasersysteme (SOL) Projektleitung: Prof. Dr. Christoph Pflaum Stichwörter: Laser; numerische Simulation Laufzeit: 1.1.2007–31.12.2009 Förderer: BMWi Bundesmininsterium für Wirtschaft und Technologie Mitwirkende Institutionen: Laser-Laboratorium Göttingen e.V. TU Kaiserslautern, AG Laserphysik und Nichtlineare Optik InnoLas GmbH IB Laser AG OptoPrecision GmbH Xiton Photonics GmbH GWU-Lasertechnik Vertriebsgesellschaft mbH LAS-CAD GmbH METROLUX Optische Messtechnik GmbH PHYWE Systeme GmbH Kontakt: Prof. Dr. Christoph Pflaum Tel.: 09131-85-28692 Fax: 09131-85-28928 E-Mail: [email protected] Der Laser ist eine Basiskomponente für eine große Zahl moderner optischer Systeme mit wichtigen Einsatzfeldern in der verarbeitenden Industrie, der Medizin und der Informationstechnik. Aufgrund der wirtschaftlichen Bedeutung dieser Anwendungsgebiete gehört die Lasertechnik zu den zukunftsorientierten Schlüsseltechnologien. Die Beherrschung dieser Technik wird die Wettbewerbsfähigkeit wichtiger Branchen wie Maschinenbau, Optik und Elektronik, sowie Kommunikations- und Medizintechnik entscheidend beeinflussen. Bei der Entwicklung neuer Laser, der Leistungsverbesserung existierender Systeme sowie deren Anpassung an neue Anwendungsfelder gehört die Optimierung des Strahlprofils zu den wichtigsten Aufgaben. Denn ein unzureichendes Strahlprofil limitiert den technischen Einsatz des Lasers, da insbesondere durch das Strahlprofil die Fokussierbarkeit des Lasers bestimmt wird. Dies ist zum Beispiel für die Mikromaterialbearbeitung und die nichtlineare Optik von entscheidender Bedeutung. 387 Jedoch ist diese Optimierung als äußerst schwierig einzustufen, da das Strahlungsfeld anders als bei herkömmlichen Lichtquellen mit Hilfe resonanter Schwingungen des elektromagnetischen Feldes im Resonator erzeugt wird, so dass komplexe, miteinander wechselwirkende physikalische Parameter zur Strahlformung beitragen. In der Vergangenheit erfolgte diese Optimierung auf empirische Weise in langwierigen kostenintensiven experimentellen Untersuchungen. Heute jedoch sind die Senkung der Entwicklungszeiten bei gleichzeitiger Steigerung der Qualität, Effizienz und Leistung entscheidende Faktoren für die Wettbewerbsfähigkeit hiesiger Laserhersteller. Diese Kostenfaktoren können erheblich reduziert werden, wenn die Entwicklungsarbeiten durch leistungsfähige Computersimulationen unterstützt werden. Darüber hinaus ermöglichen derartige Simulationen die Entwicklung hoch innovativer Lasersysteme, die durch experimentell-empirische Versuche allein nicht realisierbar wären. So ist das Ziel des Projekts die Entwicklung eines Computersimulationsprogramms, welches die Lasermoden unter Beachtung thermischer Effekte und der absorbierten Pumplichtverteilung exakt berechnet. Ein viel versprechender Ansatz für die Simulation der Vorgänge im Resonator liegt in der Verwendung von Finite-Elemente-Analysen (FEA), welche heute auf vielen Gebieten erfolgreich zur Modellierung technischer Systeme eingesetzt werden. Der Einsatz von FEA Verfahren in der Lasertechnik beschränkt sich jedoch bisher im Wesentlichen auf die Berechnung thermischer Effekte, wie dies in dem von einem der Projektpartner entwickelten Programm LASCAD erfolgreich durchgeführt wird. Mit dieser Software kann jedoch das für die Ausbildung des Strahlprofils wichtige Verhalten der elektromagnetischen Felder im Resonator nicht ausreichend beschrieben werden. Dies betrifft besonders jene Festkörperlaserkonfigurationen, die von großem technischem und wirtschaftlichem Interesse sind. Beispiele hiefür sind Laser, die seitlich von Lampen angeregt werden und für Punktschweißgeräte und in der Lasermesstechnik benötigt werden, oder Laser, die seitlich von Diodenlasern angeregt werden und welche Einsatz in Markierungs- und Beschriftungssystemen finden, oder schließlich endgepumpte Laser, die nichtlineare optische Effekte aufweisen. Ein letztes Beispiel wären Verstärkersysteme für ultrakurze Laserpulse in der Mikrosystemtechnik. Für diese Lasersysteme muss durch zuverlässige Simulationen sowohl die zeitliche als auch die räumliche Struktur des erzeugten Laserstrahls untersucht und optimiert werden. Diese Aufgabe, welche nicht nur technisch, sondern auch wissenschaftlich von erheblicher Bedeutung ist, soll im Rahmen des geplanten Vorhabens durch den Einsatz von FEA Verfahren zur Berechnung der elektromagnetischen Feldstrukturen im Laserresonator gelöst werden. Die Berechnungen sollen anhand realer Lasersysteme validiert und anschließend bei der Entwicklung innovativer Resonatoren eingesetzt werden. Darüber hinaus sollen die Simulationsergebnisse mit Hilfe eines Modengenerators 388 überprüft werden, der aufgrund seines einfachen Aufbaus leicht zu simulieren ist und exakt reproduzierbare Gauss-Hermite-Moden erzeugt. 18.3.3 Numerische Simulation von Halbleiterlasern mit Hilfe von Finiten Elementen Projektleitung: Prof. Dr. Christoph Pflaum Beteiligte: Dipl.-Math. Britta Heubeck Dr. Günther Steinle (Infineon) Stichwörter: Numerische Simulation; Halbleiterlaser; DFB-Laser; Finite Elemente Laufzeit: 25.8.2004–30.6.2007 Förderer: Infineon Die Schwierigkeit bei der numerischen Simulation von DFB-Lasern ist, dass einerseits die Reflexionseigenschaften der Struktur genau berücksichtigt werden müssen und andererseits solche Laser eine im Verhältnis zur Wellenlänge relativ große Resonatorgeometrie aufweisen. Daher ist eine direkte Anwendung der Finite Elemente Methode nicht möglich. Aus diesem Grund wurde eine Finite Elemente Methode entwickelt, welche insbesondere auf Laser mit langen Geometrien und bei inneren Reflexionen anwendbar ist. Die nodalen Basisfunktionen werden dabei mit geeigneten Sinus- und Cosinusfunktionen multipliziert, so dass eine größere Genauigkeit trotz einer geringeren Anzahl von Gitterpunkten erreicht wird. Mittels dieser Simulation lassen sich Laser-typische Effekte wie ”spatial hole burning” und ”frequency chirping” nachweisen. Publikationen – Heubeck, Britta ; Pflaum, Christoph ; Steinle, G.: New Finite Elements for LargeScale Simulation of Optical Waves .Vortrag: 6th International Congress on Industrial and Applied Mathematics, Zürich, 19.07.2007 – Heubeck, Britta ; Pflaum, Christoph ; Steinle, G.: Non-conforming finite elements for wave simulations on large geometries . In: University of Reading, UK (Hrsg.) : Proceedings of Waves 2007 – The 8th International Conference onMathematical and Numerical Aspects of Waves (Waves 2007 Reading, OK 23.-27.07.2007). 2007, S. 68-70. – ISBN 0-704998-80-7 389 18.3.4 Numerische Simulation von Lasern Projektleitung: Prof. Dr. Christoph Pflaum Stichwörter: Laser; numerische Simulation Laufzeit: 1.1.2004–1.1.2007 Förderer: Bayerisch-Kalifornisches Hochschulzentrum Laser werden in vielen industriellen Anwendungen benötigt. Um optimale Laser herzustellen, ist deren Simulation sehr wichtig. Hierbei ist insbesondere die Simulation der optischen Welle in einem Laser entscheidend. Im Falle von Festkörperlasern ist es zusätzlich notwendig, die Temperatur und die Spannungen in einem Laser zu simulieren und im Falle von Halbleiterlasern zusätzlich die Elektronendichte. Ziel des Projektes ist die Entwicklung neuer Techniken zur Simulation von Lasern. Hierbei soll zunächst das zeitabhängige Verhalten von Lasern genauer untersucht werden. Publikationen – Altmann, Konrad ; Pflaum, Christoph ; Seider, David: Modeling and Computation of Laser Cavity Eigenmodes . In: Sennaroglu, A. ; Fujimoto, J.G. ; Pollock, C.R. (Hrsg.) : SPIE (Veranst.) : Solid State Lasers and Amplifiers (Conference Photonics Europe Strasbourg 27.04.2004 – 29.04.2004). Bellingham, Washington, USA : SPIE, 2004, S. 204 – 211. (Proceedings of SPIE, Nr. 5460) – ISBN 0-81945382-X – Pflaum, Christoph ; Seider, D. ; Altmann, K.: Three-Dimensional Finite Element Computation of Laser Cavity Eigenmodes . In: Applied Optics-LPE 43 (2004), Nr. 9, S. 1892–1901 390 19 Lehrstuhl für Informatik 11 (Software Engineering) Anschrift: Martensstraße 3, 91058 Erlangen Tel.: +49-9131-85-27877 Fax: +49-9131-85-28746 E-Mail: [email protected] Leitung: Prof. Dr. Francesca Saglietti Sekretariat: Jutta Radke Andrea Stör Wiss. Mitarbeiter: Dipl.-Inf. (FH) Josef Adersberger Dr.-Ing. Norbert Oster Dipl.-Inf. Florin Pinte Dipl.-Inf. Claudia Schieber Dipl.-Inf. Sven Söhnlein Dipl.-Inf. Marc Spisländer Dipl.-Inform. Dirk Wischermann Externe Doktoranden: Dipl.-Inf. Karl.-L. Heinrich Dipl.-Math. Annette Merkel Nichtwiss. Personal: Dipl.-Ing. (FH) Gerd Schober Bibliotheksassistent: Dr.-Ing. Norbert Oster Der Lehrstuhl für Software Engineering befasst sich schwerpunktmäßig mit der ingenieurmäßigen Entwicklung und dem Zuverlässigkeitsnachweis komplexer Softwaresysteme hoher Qualität unter Berücksichtigung der einzusetzenden Arbeits- und Zeitressourcen. Berichtszeitraum 2006 Dank dem Einsatz und dem Zusammenhalt besonders leistungsfähiger und loyaler Mitarbeiter konnte der Lehrstuhl auch aus dem vergangenen, in mancherlei Hinsicht recht stürmischen Jahr qualitativ und quantitativ gestärkt hervorgehen. Unter den besonderen Highlights des Berichtszeitraums sind folgende erfreuliche Ereignisse vorweg zu verzeichnen: 1. Erste Dissertationen aus Lehrstuhlprojekten: Zwei der im Jahr 2002 am Lehrstuhl 391 gestarteten Forschungsprojekte konnten im Berichtszeitraum so weit fortschreiten, dass die bis dahin erzielten Ergebnisse die Grundlage zur Vollendung zweier Doktorarbeiten lieferten, deren Originalität und Qualität bereits seitens verschiedener lehrstuhlexterner Gutachter bestätigt wurden: einerseits das Vorhaben .gEAr zur automatischen Testfallgenerierung sowie andererseits das Vorhaben Tricos zur konsistenten Integration vorgefertigter Softwarekomponenten auf Basis einer erweiterten Schnittstellendefinition; letzteres Vorhaben basiert auf Vorarbeiten, die vor der Gründung des Lehrstuhls auf dem Garchinger Forschungsgelände entstanden sind. 2. Bewilligung des Forschungsvorhabens UnITeD (Unterstützung Inkrementeller Testdaten) seitens des Bayerischen Staatsministeriums für Wirtschaft, Infrastruktur, Verkehr und Technologie im Rahmen des Programms ”Informations- und Kommunikationstechnik”: Leitidee ist das effiziente Zusammenspiel von Grundlagenforschung, innovativer Werkzeugentwicklung und aktiver Prozessbeteiligung der Industrie. Das Vorhaben mit dem Verbundpartner AFRA GmbH (Gesellschaft für anwenderfreundliche Automatisierung) verfolgt das Ziel, deutlich über den derzeitigen Stand der Technik hinaus die Testphase hochzuverlässiger, insbesondere sicherheitskritischer Software zu automatisieren, um dadurch bei reduzierten Kosten die Erkennung von Restfehlern in komplexer Software zu erhöhen. Die automatisierte Testprozedur wird im realen medizintechnischen Umfeld erprobt. 3. Betrauung mit der Tagungsleitung der Safecomp 2007 seitens des European Workshops on Industrial Computer Systems (EWICS): Die zum 26. Mal wiederkehrende International Conference on Computer Safety, Reliability and Security wird im Herbst des Jahres 2007 in Nürnberg stattfinden. Veranstalter sind der Lehrstuhl für Software Engineering und die Gesellschaft für Informatik. Kooperationen 2006 1. Industrielle Kooperationen Die bereits bestehenden industriellen Kontakte, vor allem mit Unternehmen der fränkischen Region, wurden intensiviert und ergänzt. Neben der besonderen wissenschaftlichen Zusammenarbeit mit AFRA GmbH und Siemens AG Medical Solutions im Rahmen des bereits erwähnten Verbundprojekts UnITeD, sind vor allem folgende industrielle Kooperationen nennenswert: • ”Offline-Debugging für Continuous Function Charts” (mit Siemens PTD Energy Automation), • ”Kombination von Zuverlässigkeitswachstumsmodellen und Unterstützung ihrer industriellen Einsetzbarkeit” (mit Siemens Audiologische Technik), • ”Anforderungsanalyse und Implementierung von Störfallsimulatoren” (mit Siemens Automation & Drives), 392 • ”Einsatz statistischer Verfahren zur Klassifizierung der Symptomatik und zur Schätzung der Zuverlässigkeit softwarebasierter Systeme” (mit Siemens Medical Solutions). Wie üblich betrafen die softwaretechnischen Fragestellungen wissenschaftliche Untersuchungen, die anhand industrieller Anwendungen praxisnah umgesetzt wurden. 2. Internationale wissenschaftliche Kooperationen Auch dieses Jahr beteiligte sich der Lehrstuhl für Software Engineering in seiner koordinierenden Rolle im Rahmen des ”European Workshop on Industrial Computer Systems” (EWICS) und des ”European Network of Clubs for Reliability and Safety of Software-Based Systems” (ENCRESS) an der Ausrichtung der jährlich stattfindenden SAFECOMP-Tagungsreihe (25th International Conference on Computer Safety, Reliability and Security), die im September 2006 zahlreiche Teilnehmer aus Forschung und Industrie nach Danzig zusammenbrachte und u.a. zur Darstellung und Veröffentlichung der Forschungsergebnisses eines Lehrstuhlprojekts Gelegenheit gab. Anlässlich ihres Besuches deutscher Universitäten im Rahmen einer Exploration Tour hat Boeing Research and Technology eine Auswahl an Forschungsthemen der Technischen Fakultät getroffen, die das besondere Interesse der amerikanischen Luftfahrtindustrie erwecken konnten, darunter das Lehrstuhlprojekt .gEAr, über dessen aktuellen Stand der Lehrstuhlmitarbeiter Herr Norbert Oster mit seinem Vortrag ”Automatic Generation and Optimization of Software Test Data” berichten konnte. 3. Nationale wissenschaftliche Kooperationen Höhepunkt der Tätigkeit im Leitungsgremium des GI-Fachbereichs Sicherheit – Schutz und Zuverlässigkeit war 2006 die Organisation der dritten Jahrestagung zum Thema Sicherheit, die im Februar 2006 an der Otto-von-Guericke Universität Magdeburg stattfand und an der sich der Lehrstuhl organisatorisch und fachlich beteiligte. Als Mitglied der Tagungsleitung gehörte es zu den besonderen Aufgaben der Lehrstuhlinhaberin, im Rahmen dieser Tagung einen ganztägigen, aus drei Sitzungen bestehenden Workshop zum Thema ”Safety” zu veranstalten, der erfreulicherweise auch zahlreiche Kollegen aus der ”Security”-Gemeinschaft anzog, und der durch einen Beitrag mit dem Titel ”Interaktion zwischen funktionaler Sicherheit und Datensicherheit” auch zur Darstellung und zur Publikation eines am Lehrstuhl konzipierten integrierenden Ansatzes zwischen den beiden ”Safety / Security – Communities” Anlass gab. Besondere Erwähnung verdient auf nationaler Ebene auch die Tagung ”Sicherheit und Zuverlässigkeit für automobile Informationstechnik” (Automotive Safety & Security), die im Oktober 2006 zum zweiten Mal an der Universität Stuttgart stattfand und sich wieder der Teilnahme zahlreicher Vertreter der Automobilindustrie erfreuen konnte. Auch heuer wurde die Organisation dieser Veranstaltung von der am Lehrstuhl für 393 Software Engineering koordinierten GI-Fachgruppe ENCRESS, zusammen mit anderen Fachgruppen aus dem gemeinsamen Fachbereich ”Sicherheit – Schutz und Zuverlässigkeit” mitgetragen. Weiterhin interessant war eine Begegnung mit der Firma ZF Friedrichshafen anlässlich derer die Lehrstuhlinhaberin einen Seminarvortrag zum Thema SoftwareZuverlässigkeit hielt. Schließlich war die Fachgruppe ENCRESS und damit auch der Lehrstuhl an der Ausrichtung des 4th Workshop ”Dependability and Fault Tolerance” ebenfalls mitbeteiligt, der im März 2006 im Rahmen der 18th International Conference on Architecture of Computing Systems – System Aspects in Organic Computing (ARCS ’06) in Frankfurt am Main stattfand. Lehrtätigkeit 2006 Das Lehrangebot, das sich inzwischen an die Studiengänge Informatik, Computational Engineering, Wirtschaftsinformatik, Informations- und Kommunikationstechnik, Mechatronik, Computerlinguistik, Elektrotechnik, Maschinenbau, Wirtschaftsingenieurwesen und Informatik für Lehramt wendet, umfasste im Jahr 2006 erstmalig eine Pflichtvorlesung im Fach Software Engineering für die Studierenden der Informations- und Kommunikationstechnik. Wie die in allen Sparten des Fragebogens überdurchschnittliche Evaluierung seitens der Studierenden ergab, konnte sich auch diese Lehrveranstaltung der Zustimmung und des Interesses der Studierenden, einschließlich des neu hinzugekommenen Studiengangs erfreuen, deren Nachfolger wir hiermit wie immer herzlich willkommen heißen. Vorträge 2006 N. Oster: Automatic Test Data Generation by Multi-objective Optimisation, 25th International Conference on Computer Safety, Reliability and Security (SAFECOMP2006), Danzig N. Oster: Automatic Generation and Optimization of Software Test Data Boeing Research and Technology Exploration Tour, Erlangen F. Saglietti: Interaktion zwischen funktionaler Sicherheit und Datensicherheit, 3. Jahrestagung Sicherheit – Schutz und Zuverlässigkeit, Otto-von-Guericke-Universität Magdeburg F. Saglietti: Software-Zuverlässigkeit, ZF Friedrichshafen F. Saglietti: Entwicklung und Zuverlässigkeitsnachweis komplexer, softwarebasierter Automatisierungssysteme mit Sicherheitsverantwortung, Kolloquium Zuverlässigkeit, Technische Universität München Berichtszeitraum 2007 394 Der Berichtszeitraum 2007 war vor allem durch erfolgreiche wissenschaftliche Kooperationen mit dem Ausland geprägt, wie im Folgenden detailliert. Internationale Kooperationen 2007 1. Fachliche und organisatorische Leitung der internationalen Tagung SAFECOMP 2007 Die 26th International Conference on Computer Safety, Reliability and Security (SAFECOMP 2007) fand vom 18. bis 21. September 2007 in den Räumen der Wirtschafts- und Sozialwissenschaftlichen Fakultät in Nürnberg statt. Die Tagungsreihe SAFECOMP wird seit Jahrzehnten vom europäischen Arbeitskreis EWICS TC7 (European Workshop on Industrial Computer Systems, Technical Committee on Reliability, Safety and Security) fachlich getragen und von jeweiligen nationalen Institutionen in meist europäischen Gastländern organisiert. Gemeinsame Veranstalter der diesjährigen Konferenz waren die Gesellschaft für Informatik (GI) e.V., insbesondere deren Fachgruppe ENCRESS (Reliability and Safety of Software-intensive Systems) und der Lehrstuhl für Software Engineering (Informatik 11) der Universität ErlangenNürnberg, dem aufgrund der seit Jahren wahrgenommenen Aufgaben in EWICS und ENCRESS die fachliche und organisatorische Tagungsleitung zufiel. Diese doppelte Funktion erforderte einen erheblichen Einsatz, der bereits im Frühjahr durch 136 Einreichungen honoriert wurde; nach der Begutachtungsphase wurden im Laufe einer im Mai in Erlangen abgehaltenen Sitzung des internationalen Programmkomitees daraus schließlich 33 vollständige Artikeln (für Vorträge) und 16 Kurzbeiträge (für Posters) ausgewählt, die anschließend in den Lecture Notes in Computer Science (LNCS Vol. 4680) vom Springer-Verlag publiziert wurden. Der erste der vier Konferenztage wurde der Durchführung paralleler Veranstaltungen (2 Workshops und 1 Tutorial) unter der Regie europäischer Konsortien gewidmet. Die anschließende dreitägige Haupttagung bestand aus 15 Plenarsitzungen, darunter zwei eingeladenen Vorträgen und einem Panel. Die Anzahl der Teilnehmer übertraf die Erwartungen: aus 25 Ländern reisten ca. 170 Kollegen zur Konferenz an. Der Hintergrund der Anwesenden war nicht nur geographisch, sondern auch fachlich sehr vielfältig, was auf den Gedanken- und Meinungsaustausch zwischen Forschungs- und Praxisorientierten belebend wirkte: neben den internationalen Universitäten, die etwa die Hälfte des Plenums ausmachten, konnten zahlreiche industrielle Teilnehmer verzeichnet werden, darunter aktiv mitwirkende Vertreter der Bahntechnik (Siemens Rail Automation), der Automobilindustrie (BMW, Siemens VDO), der Luftfahrt (Boeing, Airbus) und der Medizintechnik (Philips Medical Systems). Nicht nur quantitativ, sondern vor allem aus qualitativer Sicht war die Tagungspräsenz sehr erfreulich, nicht zuletzt dank der Gewinnung der beiden auf dem Gebiet sicherheits395 relevanter Automatisierungssysteme weltbekannten Experten Bev Littlewood (Centre for Software Reliability) und Jean-Claude Laprie (Laboratoire d’ Analyse et d’ Architecture des Systèmes). Auch das Rahmenprogramm erfreute sich des allgemeinen Interesses, vor allem die Besichtigung der Leitstelle der Nürnberger U-Bahn, im Laufe derer auf die während der Tagung bereits vorgetragenen Konzepte fahrerloser Züge konkret und detailliert eingegangen werden konnte. Insgesamt ist es gelungen, der SAFECOMP Community eine würdige diesjährige Veranstaltung in Franken anzubieten. Weitere Informationen unter http://www11.informatik.uni-erlangen.de/safecomp2007/ 2. Begutachtung von Projektanträgen für die finnische Akademie und Forschungsgemeinschaft Die Lehrstuhlleitung beteiligte sich an der Evaluierung von Forschungsprojektanträgen, wozu die finnische Akademie der Wissenschaften (Academy of Finland and Research Council for Natural Sciences and Engineering) im Mai 2007 eingeladen hatte. Der Expert Panel in Computer Science bestand aus eingeladenen Gutachtern aus Deutschland Frankreich, Großbritannien und Dänemark. Die Anträge betrafen sowohl ”general research grants” zut Förderung bereits bestehender Forschungsgruppen als auch ”postdoctoral researcher’s projects” zur Neu-Einstellung promovierter Wissenschaftler. 3. Kooperation mit europäischem Netzwerk ReSIST Im Rahmen einer Kooperation von EWICS TC7 mit dem europäischen Network of Excellence ”Resilience for Survivability in Information System Technologies” (ReSIST) durfte sich der Lehrstuhl für Software Engineering als Gastgeber und als Mitgestalter eines Joint Workshop on ”Teaching Resilient Computing” beteiligen, der im Mai 2007 in Erlangen stattfand. Im Laufe dieser Veranstaltung präsentierten Kollegen aus 7 europäischen Ländern eigene Konzepte und Erfahrungen in der Lehre verlässlicher, rechnerbasierter Technologien und diskutierten über die Möglichkeit, Studienpläne auf diesem Fachgebiet auf europäischer Ebene weitgehend zu harmonisieren. Nationale Kooperationen 2007 Auf nationaler Ebene beteiligte sich der Lehrstuhl sowohl durch die Mitarbeit im Programmkomitee als auch mit eigenen Vorträgen und Publikationen an der Mitgestaltung folgender Veranstaltungen: 1. 5th Workshop Dependability and Fault Tolerance, im Rahmen der International Conference on Architecture of Computing Systems (Zürich, März 2007) 2. Tagung Software Engineering (SE’07), insbesondere Workshop Testmethoden für Software – Von der Forschung in die Praxis (Hamburg, März 2007) 396 3. Workshop Modellbasiertes Testen im Rahmen der 37. Jahrestagung der Gesellschaft für Informatik (Bremen, September 2007). Lehrtätigkeit und industrielle Zusammenarbeit auf regionaler Ebene 2007 Im Zusammenhang mit besonderen Lehr- und Betreuungsaufgaben im Berichtszeitraum 2007 sind – neben zahlreichen Lehrveranstaltungen – vor allem mehrere in industrieller Zusammenarbeit durchgeführten Studien- und Diplomarbeiten hervorzuheben, die wieder einmal den Bezug zwischen spannenden softwaretechnischen Fragen und in der industriellen Praxis dringend erforderlichen wissenschaftlichen Untersuchungen in aller Deutlichkeit herzustellen erlaubten. Die am Lehrstuhl betreuten Studierenden bearbeiteten u. a. Fragestellungen bzgl. des Einsatzes formaler Verifikationsverfahren in der Telekommunikation (in Zusammenarbeit mit Alcatel Lucent), der gezielten Auswahl adäquater Dokumentationssysteme (in Zusammenarbeit mit Komke Consulting), sowie der Herleitung qualitativer Kenngrößen aus symptomatisch klassifizierten Beobachtungen (in Zusammenarbeit mit Siemens Medical Solutions). Besondere Erwähnung verdient das im Rahmen einer Studienarbeit durchgeführte studentische Projekt ”Analyse und Vergleich von Verfahren zur Leistungsbewertung von Softwaresystemen”, in dem unterschiedliche Verfahren zur Leistungsanalyse und zur Leistungsbewertung von Programmen untersucht wurden; darauf aufbauend wurde für ein konkretes Softwaresystem des industriellen Partners Siemens Industrial Solutions die Leistungsbewertung anhand eines dazu passend ausgewählten Verfahren praktisch vorgenommen. Vorträge 2007 N. Oster: Automatische Testdatengenerierung mittels multi-objektiver Optimierung, Workshop Testing of Software – From Research to Practice, in conjunction with International Conference on Software Engineering (SE 2007), Hamburg F. Pinte: Interface Coverage Criteria Supporting Model-Based Integration Testing, 5th Workshop on Dependability and Fault Tolerance, in conjunction with 20th International Conference on Architecture of Computing Systems (ARCS 2007), Zürich F. Pinte: Automatische, modellbasierte Testdatengenerierung durch Einsatz evolutionärer Verfahren, Workshop on Model-Based Testing, im rahmen der GI-Jahrestagung, Bremen F. Saglietti, N. Oster: Teaching Software Reliability Engineering, Workshop on Teaching Resilient Computing, joint event of European Workshop on Industrial Computer Systems (EWICS TC7) and European Network of Excellence on Resilience for Survivability in IST (ReSIST), Erlangen F. Saglietti: Einheitliche Modellierung von funktionaler Sicherheit und Datensicherheit, Arbeitskreis Begriffsbildung des GI-Fachbereichs Sicherheit, Universität Mannnheim 397 Allgemeine Forschungsschwerpunkte des Lehrstuhls Der Forschungsschwerpunkt ”Erstellung und Qualitätsnachweis zuverlässiger komplexer Software” umfasst die Vermeidung logischer Fehler bei Programmkonzeption und –realisierung sowie die Bewertung der erzielten Softwarezuverlässigkeit. Neben dem Einsatz (semi)formaler Notationen zur Darstellung und zur Analyse von Problemen und ihrer softwarebasierten Lösungen wird am Lehrstuhl für Software Engineering vor allem die Praktikabilität neuer, besonders rigoroser Testverfahren durch gezielte Reduzierung des bisher damit verbundenen Aufwands erhöht. Dabei handelt es sich sowohl um White- und Grey-Box Testansätze, die die frühe Fehlererkennung verfolgen, als auch um zufallsbasierte Black-Box Testverfahren zur Schätzung der Restfehlerhäufigkeit aufgrund statistischer Stichprobentheorie. Darüber hinaus umfasst die Forschungstätigkeit auch folgende Teilgebiete: • Auswirkung des Erstellungsprozesses auf die Softwarequalität, • Objektorientierte Entwurfs- und Analyseverfahren, • Softwareverifikation und -validierung, • Quantitative Bewertung der Softwarezuverlässigkeit, • Wiederverwendung vorgefertigter Softwarebausteine, • Fehlertolerierende Softwarearchitekturen, • Softwarezertifizierung für sicherheitsrelevante Anwendungen (safety), • Erzielung und Nachweis von Informationssicherheit (security), • Menschliche Faktoren bei Erstellung und Bedienung komplexer Software. Forschungsrelevante apparative Ausstattung • Werkzeuge zur Anforderungserfassung und -analyse, • Objektorientierte Modellierungswerkzeuge für Analyse und Design, • Analysatoren für klassische und zeitbehaftete Petri Netze, • Model Checker, • Theorem Prover, 398 • Bug Tracker, • Testdatengeneratoren für das strukturelle Testen, • Instrumentierer des Programmcodes zu Testzwecken, • Configuration Management Werkzeuge. Kooperationspartner • AFRA • Alcatel Lucent • Centre for Software Reliability (UK) • Forschungszentrum Karlsruhe • Forschungszentrum Seibersdorf (A) • infoteam Software • imbus • ing DiBa • Komke Consulting • Laboratoire d’ Analyse et d’ Architecture des Systèmes (F) • Siemens Rail • Siemens Automation & Drives • Siemens Medical Solutions • Siemens PTD Energy Automation • Siemens Transportation Systems • Siemens VDO • Università di Pisa (I) 399 19.1 Forschungsprojekte 19.1.1 Analyse und Vergleich von Verfahren zur Leistungsbewertung von Softwaresystemen Projektleitung: Dipl.-Inf. Sven Söhnlein Beteiligte: Jensen, Ulf Laufzeit: 6.8.2007–7.3.2008 Mitwirkende Institutionen: Siemens Industrial Solutions Kontakt: Dipl.-Inf. Sven Söhnlein Tel.: +49-9131-85-27868 Fax: +49-9131-85-28746 E-Mail: [email protected] Bei der quantitativen Bewertung von Softwarequalitätsmerkmalen spielt im Zusammenhang mit dem Zuverlässigkeitsnachweis insbesondere der Nachweis vorgegebener Leistungskenngrößen eine bedeutende Rolle. Gerade für softwarebasierte Echtzeitsysteme ist nämlich über die funktionale Korrektheit des Verhaltens hinaus vor allem die Überprüfung der Einhaltung vorgegebener Zeitschranken bei der Diensterbringung von entscheidender Bedeutung. Leistungsmerkmale wie die Ausführungszeit und deren Variabilität stellen deshalb besonders wichtige nachzuweisende Kenngrößen dar. Im Rahmen dieses Projektes wurden zunächst unterschiedliche Verfahren zur Leistungsanalyse von Programmen identifiziert und hinsichtlich ihrer Vor- und Nachteile untersucht. Insbesondere wurden auch entsprechende Tools zur Leistungsbewertung begutachtet und bezüglich ihrer Einsetzbarkeit vergleichend bewertet. Derzeit werden einige der betrachteten Verfahren und Tools exemplarisch erprobt, um eine konkrete industrielle Anwendung zu analysieren, für die gewisse Leistungskenngrößen erzielt werden sollen. Im Hinblick auf die angestrebte Reduktion der Ausführungszeit sollen hierfür auch Codeoptimierungsansätze untersucht werden. Durch erste Analysen konnten für die Anwendung bereits einige leistungsoptimierende Änderungen identifiziert werden. 19.1.2 Anforderungsanalyse und Implementierung von Störfallsimulatoren Projektleitung: Dipl.-Inf. Florin Pinte 400 Beteiligte: Wang, Gang Laufzeit: 1.9.2006–1.3.2007 Mitwirkende Institutionen: Siemens PTD Energy Automation Kontakt: Dipl.-Inf. Florin Pinte Tel.: +49 9131 8527868 Fax: +49 9131 8528746 E-Mail: [email protected] Zur Einarbeitung und Schulung von Mitarbeitern großer Energieerzeugungsunternehmen ist der Einsatz von Simulatoren sinnvoll, die das Systemverhalten, insbesondere bei Auftreten vordefinierter Störfalle, nachzuahmen erlauben, um dadurch das korrekte Reaktionsverhalten des Personals auf derartige Störfälle möglichst realitätsnah trainieren und testen zu können. Im Rahmen dieses Projektes wurde zunächst die Einsetzbarkeit der Fehlerbaumanalyse zum Zweck einer weitgehend systematischen Herleitung relevanter Störfälle untersucht. Anschließend wurde die formale Erfassbarkeit zu simulierender Störfalle als Ereignisketten analysiert. Zu diesem Zweck wurden bereits bestehende Formalismen, u. a. Ereignisbäume (Event Trees) im Hinblick auf ihre Ausdruckkraft und Eindeutigkeit bewertet. Um auch die Überprüfung der korrekten Reaktion seitens des menschlichen Operateurs weitgehend zu automatisieren, wurde abschließend ein Werkzeug entwickelt, das an einem konkreten Netzleitsystem diejenigen Störfälle, die durch die Fehlerbaumanalyse als relevant identifiziert wurden, simuliert und somit das Trainieren des korrekten Bedienverhaltens in solchen Fällen unterstützt. 19.1.3 Automatische datenflussorientierte Testfallerzeugung für orientierte Softwaresysteme mittels evolutionärer Verfahren Projektleitung: Prof. Dr. Francesca Saglietti Beteiligte: Dr.-Ing. Norbert Oster Stichwörter: Testen; Automatische Testfallerzeugung; Verfahren; Genetische Algorithmen Beginn: 1.8.2002 401 Datenfluss; objekt- Evolutionäre Kontakt: Dr.-Ing. Norbert Oster Tel.: +49-9131-85-28747 Fax: +49-9131-85-28746 E-Mail: [email protected] Die Zunahme der Komplexität moderner Softwaresysteme stellt trotz deutlich verbesserter Entwicklungsmethoden heute noch das Haupthindernis auf dem Weg zur fehlerfreien Programmerstellung dar. Größe und Budget heutiger Projekte verbieten meist eine vollständige formale Verifikation, die selbst in realisierbaren Fällen nur die logische Domäne der Programme und nicht ihr reales Umfeld einbezieht, weshalb dem Testen als Qualitätssicherungsmaßnahme vor der Freigabe der Software ein hoher Stellenwert eingeräumt wird. Um die Chancen der Fehlererkennung während der Testphase zu erhöhen, werden Testfälle nach unterschiedlichen Strategien ausgewählt: Während funktionales Testen die Eingaben aus den spezifizierten Anforderungen herleitet, streben strukturelle Tests eine möglichst vollständige Ausführung des Codes an. Bedingt durch die Komplexität der Kontrollstrukturen ist die Ermittlung geeigneter Testdaten zur Erfüllung datenflussorientierter Überdeckungskriterien besonders zeitaufwändig. Selbst wenn Testdaten zufällig generiert werden, müssen sie darüber hinaus meist manuell auf Korrektheit überprüft werden, so dass ihre Anzahl entscheidend zu Buche schlägt. Ziel des laufenden Projekts ist es, die Generierung adäquater Mengen datenflussorientierter Testfälle zu automatisieren und unterschiedliche Verfahren hinsichtlich ihrer Eignung nach verschiedenen Kriterien (Güte, Aufwand) zu untersuchen. Als geeignete Such- und Optimierungsalgorithmen haben sich Evolutionäre Verfahren in unterschiedlichen Anwendungen erwiesen. Bisherige Arbeiten empfehlen bereits Genetische Algorithmen, jedoch wurde ihre Anwendbarkeit lediglich auf einfache Kontrollflusskriterien (etwa nach erzielten Anweisungs- oder Verzweigungsüberdeckungsmaßen) untersucht. Auch hat man bisher entweder eigene Programmiersprachen definiert oder bestehende soweit eingeschränkt, dass die Verfahren nicht mehr ohne weiteres auf reale Projekte übertragbar sind. Von den geplanten Teilaufgaben wurden bisher folgende abgeschlossen: • Dynamische Analyse der Testausführung: Um die während der Ausführung eines Testfalls tatsächlich überdeckten Definitions- / Benutzungspaare (sogenannter def / use Paare) zu ermitteln, wurde ein Werkzeug zur Überwachung der dynamischen Ausführung eines Java-Programms entwickelt. Dieses Werkzeug instrumentiert den Quellcode des Testobjekts so, dass während eines einzelnen Testlaufs alle dazu relevanten Datenflussinformationen protokolliert werden. Die Er- 402 gebnisse wurden anlässlich der internationalen Tagung PSAM7/ESREL’04 publiziert. • Globale Optimierung von Testdatensätzen: Aufbauend auf der dynamischen Bewertung der von einem Testdatensatz erzielten Überdeckung wurde ein Verfahren entwickelt, um optimale Testdatensätze mittels klassischer und evolutionärer Suchstrategien zu generieren. Dabei werden Testdatensätze nach ihrem zu minimierenden Umfang sowie der zu maximierenden Anzahl der von ihnen überdeckten Datenflusspaare bewertet. Die erzielte globale Optimierung erfordert keine detaillierte Kenntnis der Kontrollflussstruktur des Testobjekts. Zur Generierung der Testdatensätze wurden unterschiedliche selbstadaptive Evolutionäre Verfahren sowie genetische Operatoren eingesetzt und vergleichend bewertet. Die verschiedenen Kombinationen wurden in einem parallelisierten, verteilten Werkzeug realisiert und getestet. Einzelheiten wurden von der GI-Fachgruppe TAV veröffentlicht. • Statische Analyse des Testobjekts: Zur Bewertung der relativen Güte der vom Evolutionären Verfahren ermittelten Ergebnisse wird zusätzlich zu den tatsächlich erreichten Überdeckungsmaßen (siehe dynamische Analyse) die Kenntnis der maximal erzielbaren Überdeckung benötigt, das heißt der Gesamtanzahl der von Tests auszuführenden Knoten, Kanten und Teilpfade des Kontrollflussgraphen. Zu diesem Zweck wurde ein statischer Analysator realisiert, welcher darüber hinaus auch die jeweiligen Definitionen und Benutzungen (sowie alle sie verbindenden DU-Teilpfade) jeder Variablen im datenflussannotierten Kontrollflussgraphen lokalisiert. Ergänzt um die Ergebnisse der dynamischen Analyse kann zum einen ein besseres Abbruchkriterium für die globale Optimierung definiert werden, zum anderen wird die im folgenden beschriebene lokale Optimierung unterstützt. • Bestimmung des Fehleraufdeckungspotentials der automatisch generierten Testfälle: Zusätzlich zur Bewertung der relativen Güte einer Testfallmenge im Sinne der Überdeckung (siehe statische Analyse) wurde im vorliegenden Projekt auch eine Schätzung der Qualität automatisch generierter Testfälle durch Betrachtung ihres Fehleraufdeckungspotentials angestrebt. Dazu wurde ein Backto-back-Testverfahren nach dem Prinzip des Mutationstestens umgesetzt. Dabei werden repräsentative Fehler in das ursprüngliche Programm injiziert und das Verhalten der modifizierten Variante bei der Ausführung der generierten Testfälle mit dem der unveränderten Fassung verglichen. Der Anteil der verfälschten Programme, bei denen eine Abweichung im Verhalten aufgedeckt werden konnte, ist ein Indikator für das Fehleraufdeckungspotential der Testfallmenge. Die Ergebnisse der letzten beiden Teilaufgaben wurden anlässlich der internationalen Tagung SOQUA 2005 publiziert. 403 • Ausdehnung des Ansatzes auf weitere Teststrategien: Das entwickelte Verfahren zur multi-objektiven Generierung und Optimierung von Testfällen lässt sich auch auf andere Teststrategien übertragen. Wählt man Überdeckungskriterien, welche zu den betrachteten datenflussorientierten Strategien orthogonal sind, ist die Erkennung anderer Fehlerarten zu erwarten. Im Rahmen eines Teilprojektes wurde beispielsweise ein Ansatz zur statischen Analyse des Testobjekts und dynamischen Analyse der Testausführung im Hinblick auf das Kriterium der Bedingungsüberdeckung entwickelt und implementiert. • Ergänzung des Verfahrens um automatische Testtreibergeneratoren: Da für die automatische Generierung von Testfällen spezialisierte Testtreiber notwendig sind, welche sich nur bedingt zur manuellen Überprüfung der Testergebnisse eignen, wurde darüber hinaus im Rahmen eines Teilprojektes eine zweistufige automatische Testtreibergenerierung umgesetzt. Diese erstellt zunächst parametrisierbare Testtreiber, welche ausschließlich während der Testfalloptimierung eingesetzt werden, und übersetzt diese anschließend in die übliche jUnit-Syntax, sobald die generierten und optimierten Testdaten vorliegen. • Experimentelle Bewertung des entwickelten Werkzeugs: Die praktische Relevanz des entwickelten Verfahrens wurde in verschiedenen experimentellen Einsätzen erprobt und bewertet. Als Testobjekte dienten dabei Java-Packages mit bis zu 27 Klassen (5439 Codezeilen). Die nebenläufige Testausführung während der Generierung und Optimierung der Testfälle wurde auf bis zu 58 vernetzten Rechnern parallelisiert. Die Ergebnisse wurden anlässlich der internationalen Tagung SAFECOMP 2006 veröffentlicht. Das weitere Vorgehen dieses Forschungsvorhabens verfolgt folgende Zielsetzungen: • Erweiterung des Leistungsumfangs der automatischen Generierung: Zusätzlich zu den bereits unterstützten Testkriterien aus der Familie der Kontrollund Datenflussstrategien, wird die Methode und das umgesetzte Werkzeug auf weitere Testverfahren ausgedehnt. Insbesondere wird dabei eine Unterstützung für das Kriterium der strukturellen Grenzwerttestüberdeckung angestrebt, wodurch in Kombination mit den bestehenden Kriterien eine zusätzliche Erhöhung der Fehleraufdeckungsquote zu erwarten ist. • Portierung des Werkzeugs zur Unterstützung weiterer Programmiersprachen: Nachdem die Implementierung der automatischen Erstellung von Testtreibern und der Generierung und Optimierung von Testdaten für Java-Programme bereits erfolgreich abgeschlossen wurde, ist die breitere Anwendbarkeit des 404 Werkzeugs in der Industrie dadurch zu erreichen, dass die Unterstützung weiterer Programmiersprachen angeboten wird. Dazu gehört insbesondere die im eingebetteten Bereich verbreitete Familie der Sprache C – darunter die aktuelleren Derivate C++ und C#. Aufbauend auf den bisherigen Erkenntnissen für Java wird das bestehende Werkzeug um eine statische und eine dynamische Analyse für C#-Programme ergänzt. • Generierung zusätzlich erforderlicher Testdaten mittels lokaler Optimierung: Aus der bereits erfolgten Lokalisierung der Datenflusspaare (siehe statische Analyse) lassen sich insbesondere die für die Erfüllung des Testkriteriums fehlenden Testpfade ermitteln. Zugehörige Testfälle sollen durch die Anwendung Evolutionärer Verfahren in einer lokalen Optimierung generiert werden. Dazu wird eine neue Fitnessfunktion aufgrund graphentheoretischer Eigenschaften des Kontrollflussgraphen definiert. Die bereits umgesetzte Instrumentierung (dynamische Analyse) des Testobjekts wird passend erweitert. Somit wird die automatische Generierung der Testfälle gezielter lokal gelenkt und hinsichtlich Zeitaufwand und erzielter Datenflussabdeckung weiter verbessert. Publikationen – Oster, Norbert ; Dorn, Robert-Daniel: A Data Flow Approach to Testing ObjectOriented Java-Programs . In: Spitzer, Cornelia ; Schmocker, Ulrich ; Dang, Vinh N. (Hrsg.) : Probabilistic Safety Assessment and Managment (PSAM7 ESREL’04 Berlin 14.-18. Juni 2004). Bd. 2. London : Springer-Verlag, 2004, S. 1114–1119. – ISBN 1-85233-827-X – Oster, Norbert: Automatische Generierung optimaler datenflussorientierter Testdaten mittels evolutionärer Verfahren . In: Doberkat, Ernst-Erich (Univ. Dortmund) ; Kelter, Udo (Univ. Siegen) (Hrsg.) : Softwaretechnik-Trends (21. Treffen der Fachgruppe TAV (Test, Analyse und Verifikation von Software) Berlin). 2004, S. -. (Softwaretechnik-Trends Bd. 24, Nr. 3) – Oster, Norbert: Automated Generation and Evaluation of Dataflow-Based Test Data for Object-Oriented Software . In: Reussner, Ralf ; Mayer, Johannes ; et al (Hrsg.) : Quality of Software Architectures and Software Quality: First International Conference on the Quality of Software Architectures, QoSA 2005, and Second International Workshop on Software Quality, SOQUA 2005 (Second International Workshop on Software Quality (SOQUA 2005) Erfurt (D) 22. September 2005). Bd. LNCS 3712. Berlin Heidelberg : Springer-Verlag GmbH, 2005, S. 212-226. ISBN 3-540-29033-8 405 – Oster, Norbert ; Saglietti, Francesca: Automatic Test Data Generation by MultiObjective Optimisation . In: Górski, Janusz (Hrsg.) : Computer Safety, Reliability, and Security (25th International Conference on Computer Safety, Reliability and Security (SAFECOMP 2006) Gdansk (PL) 27 – 29 September 2006). Heidelberg : Springer-Verlag, 2006, S. 426-438. (Lecture Notes in Computer Science, Programming and Software Engineering Bd. 4166) – ISBN 3-540-45762-3 – Oster, Norbert ; Saglietti, Francesca: Automatische Testdatengenerierung mittels multi-objektiver Optimierung . In: Bleek, Wolf-Gideon ; Schwentner, Henning ; Züllighoven, Heinz (Hrsg.) : Software Engineering 2007 – Beiträge zu den Workshops (Software Engineering 2007 Hamburg 27.03.2007). Bd. 106. Bonn : Gesellschaft für Informatik, 2007, S. 71-73. (Lecture Notes in Informatics (LNI) Bd. 106) – ISBN 978-3-88579-200-0 – Oster, Norbert: Automatische Generierung optimaler struktureller Testdaten für objekt-orientierte Software mittels multi-objektiver Metaheuristiken . Erlangen, Friedrich-Alexander-Universität Erlangen-Nürnberg, Diss., 2007 (Arbeitsberichte des Instituts für Informatik Bd. 40, Nr. 2) . – 283 Seiten. ISSN 1611-4205 19.1.4 Automatische Testdatengenerierung zur Unterstützung inkrementeller modell- und codebasierter Testprozesse für hochzuverlässige Softwaresysteme Projektleitung: Prof. Dr. Francesca Saglietti Dr.-Ing. Norbert Oster Beteiligte: Dipl.-Inf. Florin Pinte Dipl.-Inf. Claudia Schieber Stichwörter: Testdatengenerierung; Testprozesse; Softwaresysteme; Verifikation; Validierung Beginn: 1.3.2006 Förderer: Bayerisches Staatsministerium für Wirtschaft, Infrastruktur, Verkehr und Technologie Mitwirkende Institutionen: AFRA GmbH Siemens AG (Medical Solutions) Das Vorhaben mit dem Verbundpartner AFRA GmbH verfolgt das Ziel, deutlich 406 über den derzeitigen Stand der Technik hinaus die Testphase hochzuverlässiger, insbesondere sicherheitskritischer Software zu automatisieren, um dadurch bei reduzierten Kosten die Erkennung von Restfehlern in komplexer Software zu erhöhen. Im Rahmen des Vorhabens UnITeD, das vom Freistaat Bayern als Bestandteil der Software Offensive Bayern gefördert wird, sollen neue Verfahren zur automatischen Testunterstützung entwickelt und in entsprechende Werkzeuge umgesetzt werden. Diese Verfahren sollen u. a. eine signifikante Reduzierung des erforderlichen Testaufwands in den frühen Entwurfsphasen ermöglichen, sowie den Bedarf ergänzender, auf Codebetrachtungen basierender Überprüfungen rechtzeitig feststellen. Die automatisierte Testprozedur wird im realen medizintechnischen Umfeld erprobt. Das Projekt ist in zwei Teilprojekte gegliedert. Das erste Teilprojekt betrachtet die automatische Testdatengenerierung auf Komponentenebene, während das zweite Teilprojekt den Integrationsaspekt von Komponenten in den Vordergrund stellt und Verfahren zur Automatisierung des Integrationstests entwickelt. In beiden Fällen soll das am Lehrstuhl für die Codeebene bereits erfolgreich umgesetztes Konzept (Projekt ”.gEAr”) auf Modellebene übertragen werden. Darauf aufbauend sollen die Fehleraufdeckungsquoten von modellbasiertem und strukturellem Testen verglichen werden, um Anhaltspunkte für die optimale Inkrementierung von modellbasierten Testkriterien herleiten zu können. Teilprojekt 1: Automatische Testdatengenerierung auf Komponentenebene Folgende Teilaufgaben wurden durchgeführt: • Definition modellbasierter Überdeckungskriterien und Ermittlung zugehöriger Testszenarien auf Komponentenebene: Zur automatischen Generierung von Testfällen anhand struktureller Merkmale eines Modells sind Überdeckungskriterien auf Modellebene erforderlich. Eine Reihe solcher Überdeckungskriterien wurde definiert und in einer Kriterienhierarchie eingeordnet. Hierfür wurden sowohl bereits bestehende, generische Kriterien (z.B. Knotenüberdeckung, Kantenüberdeckung) hinzugezogen, als auch dedizierte Kriterien hergeleitet. • Generierung von Testdatensätzen: Zur Überdeckung eines Modells nach einem der definierten Überdeckungskriterien sind sowohl Testszenarien (Abläufe) als auch Testdaten (Parameter) notwendig. Für die Generierung der Testdaten wurde ein evolutionäres Verfahren konzipiert, das es ermöglicht, die Qualität der generierten Testdaten in Bezug auf die erreichte Modellüberdeckung zu überprüfen. • Entwicklung eines Modellsimulators: Um den durch einen Testfall erzielten Überdeckungsgrad zu ermitteln, wurde ein Werkzeug entwickelt, welches UMLModelle zu simulieren und dadurch die bei der Ausführung des Testfalls erreichten Modellelemente zu erfassen erlaubt. Diese Information wird anschließend zur 407 Optimierung der Testdatengenerierung verwendet. Der Modellsimulator wurde exemplarisch am Beispiel von Zustandsmaschinen umgesetzt. Teilprojekt 2: Automatisierung des Integrationstests Hauptziel dieses Teilprojekts ist das Testen der Schnittstellen zwischen bereits eigenständig oder in einem fremden Kontext getesteten, miteinander interagierenden Komponenten. Folgende Teilaufgabe wurde durchgeführt: • Definition modellbasierter Schnittstellenüberdeckungskriterien: Auf der Basis vorausgegangener Lehrstuhlprojekte wurden Schnittstellenüberdeckungsstrategien für den modellbasierten Integrationstest definiert und hierarchisch eingeordnet. Für jedes identifizierte Testkriterium wurde anschließend anhand der maximalen Gesamtanzahl zu überdeckender Modellentitäten ein Aufwandsindikator ermittelt, welcher den Testmanager in den frühen Phasen bei der Auswahl der jeweils optimalen Teststrategie unterstützen soll. Folgende Zielsetzungen werden in den weiteren Schritten des Forschungsprojekts – in beiden Teilprojekten – verfolgt: • Automatische Erfassung des Testablaufs • Werkzeug zur automatischen Ausführung generierter Testdaten • Erprobung und Evaluierung der entwickelten Testverfahren an medizintechnischen Anwendungen Publikationen – Oster, Norbert ; Schieber, Claudia ; Saglietti, Francesca ; Pinte, Florin: Automatische, modellbasierte Testdatengenerierung durch Einsatz evolutionärer Verfahren . In: Koschke, Rainer ; Herzog, Otthein ; Rödiger, Karl-Heinz ; Ronthaler, Marc (Hrsg.) : Informatik 2007 – Informatik trifft Logistik (Informatik 2007 – 37. Jahrestagung der Gesellschaft für Informatik e.V. (GI) Bremen 24-27.09.2007). Bd. 2. Bonn : Köllen Druck+Verlag GmbH, 2007, S. 398-403. (Lecture Notes in Informatikcs Bd. P-110, Nr. 2) – ISBN 978-3-88579-204-8 408 – Saglietti, Francesca ; Oster, Norbert ; Pinte, Florin: Interface Coverage Criteria Supporting Model-Based Integration Testing . In: Platzner, Marco ; Großpietsch, Karl-Erwin ; Hochberger, Christian ; Andreas, Koch (Hrsg.) : ARCS ’07 – Workshop Proceedings (Workshop proceedings of the 20th International Conference on Architecture of Computing Systems (ARCS 2007) Zürich(CH) 15.03.2007). Zürich : VDE Verlag GmbH Berlin/Offenbach, 2007, S. 85-93. – ISBN 978-38007-3015-5 19.1.5 Erkennung selten auftretender Softwarefehler durch Last-Tests von Kommunikationssystemen Projektleitung: Prof. Dr. Francesca Saglietti Beteiligte: Dipl.-Math. Annette Merkel Stichwörter: Kommunikationsnetze; Lasttests; Beginn: 1.8.2003 Kontakt: Dipl.-Math. Annette Merkel Erkennungselten auftretender Softwarefehler durch Last-Tests von KommunikationssystemenDasTesten der Software von Kommunikationssystemen ist eine sehr komplexe Aufgabe. Besonders schwer erkennbar sind dabei Softwarefehler, welchenur unter seltenen Bedingungen auftreten. Einerseits ist damit zurechnen, dass derartige Fehler in relativ kleinen Netzen selten auftreten; andererseits ist das Testen großer Netze, in denen dieseFehler häufiger auftreten würden, mit sehr hohen Kosten verbunden. Um die Erkennbarkeit derartiger Fehler vor Inbetriebnahme dennoch zu erhöhen, werden systematische Methoden benötigt, welche die Reproduzierbarkeit realistischer Fehlerszenarien im Test – auch unterBerücksichtigung wirtschaftlicher Gesichtspunkte – zu optimieren erlauben. Angesichts dieses Bedarfs wird auf der Basis aktueller industrieller Erfahrungen der Einfluss von Last-Tests auf die Fehlererkennung in Kommunikationssystemen untersucht. Dabei werden Kommunikationssysteme aus dem Bereich der Vermittlungstechnik und aus dem Bereich der optischen Übertragungstechnik betrachtet. Aus den Untersuchungen soll eine systematische Vorgehensweise zur Unterstützung industrieller Systementwickler bei der Qualitätssicherung komplexer Kommunikationssysteme mit hohen Zuverlässigkeitsanforderungen hergeleitet werden. Das Projekt befasst sich mit der speziellen Fehlerklasse ”konkurrierender Zugriffe” (sog. race conditions), die unter seltenen Umständen dazu führen kann, dass zwei Pro409 zesse zeitgleich auf das gleiche Datenfeld zugreifen. Die Untersuchungen werden sowohl durch mathematische Analyse als auch durch Simulation durchgeführt. Im Berichtszeitraum wurden die Vor- und Nachteile der beiden Auswertungsmethoden ”Analyse” und ”Simulation” betrachtet. Die beiden Modellierungen und das reale System wurden verglichen. Ebenso wurden die Varianzmöglichkeiten der verschiedenen Parameter bei der Durchführung von Lasttests zur Steigerung der Auftrittshäufigkeit konkurrierender Zugriffe untersucht. Es wurden Leitlinien zur Durchführung von Lasttests erstellt. 19.1.6 Erzielung und Bewertung software-ergonomischer Merkmale in den frühen Spezifikations- und Entwurfsphasen Projektleitung: Prof. Dr. Francesca Saglietti Beteiligte: Dipl.-Inf. Karl.-L. Heinrich Stichwörter: Software-Ergonomie; Beginn: 1.1.2004 Kontakt: Dipl.-Inf. Karl.-L. Heinrich E-Mail: [email protected] Im bisherigen Verlauf des Forschungsprojekts wurden ca. 130 software-ergonomische Merkmale, so genannte SWEM, identifiziert. Aufbauend auf den SWEM wurde ein Verfahren entwickelt, das die Benutzbarkeit von Software-Applikationen qualitativ beurteilt und Maßnahmen zur Verbesserung initiiert (siehe letzten Zwischenbericht). Diesem Verfahren wurde nun eine Quantifizierungskomponente hinzugefügt. Dazu wurde zunächst eine Zerlegung Menge aller SWEM in zwölf Kategorien vorgenommen, je sechs der statischen (z. B. ”Farben”) und der dynamischen (z. B. ”Benutzerführung”) Seeheim-Komponente zugehörig. Um dem Problem der Subjektivität einer Inspektion entgegenzuwirken, wurden über eine Befragung von ca. 30 Personen aus dem Zielkreis der Software-Entwickler ”Wichtigkeiten” der einzelnen SWEM innerhalb jeder Kategorie statistisch ermittelt. Angenommene Voraussetzungen: • Die Wichtigkeiten der SWEM sind unterschiedlich. • Die Bewertungen der Testpersonen zeigen eine Korrelation auf. • Die Vergleichbarkeit der SWEM innerhalb von Kategorien ist gegeben. 410 Angelehnt an eine Kepner-Tregoe-Entscheidungsanalyse sollten die Testpersonen das für sie pro Kategorie wichtigste SWEM mit dem Höchstwert 10 bewerten und allen anderen SWEM entsprechend ihrer Meinung nach niedrigere Werte zuordnen. Für die meisten SWEM wurden hinreichend große Korrelationen zwischen den einzelnen Befragungsergebnissen gefunden: Nur 12 Im nunmehr erweiterten Verfahren zur quantitativen Beurteilung der ergonomischen Benutzbarkeit von Software-Applikationen ermittelt nun der Inspekteur für jedes SWEM auf einer Skala von 0 bis 10, wie sehr dieses für die Applikation erfüllt ist. Über ein Produktsummenverfahren aus Wichtigkeit und Erfülltheit lässt sich damit ein normierter Mittelwert der gewichteten Bewertungen für jede Kategorie als 12-dimensionaler Vektor berechnen, der eine quantitative Aussage über die Erfülltheit jeder der zwölf Kategorien macht. Dies ermöglicht den relativen Vergleich zwischen verschiedenen Applikationen. Z. B. können so zwei Versionen einer Applikation oder zwei Konkurrenzprodukte miteinander verglichen werden. 19.1.7 Integrationstest komponentenbasierter Software Projektleitung: Prof. Dr. Francesca Saglietti Beteiligte: Maryna Didkovska, M.Sc. Dr.-Ing. Norbert Oster Dipl.-Inf. Florin Pinte Dipl.-Inf. Martin Jung Stichwörter: Integrationstest; komponentenbasiert; Schnittstellenüberdeckung Laufzeit: 1.12.2003–31.1.2006 Infolge des damit verbundenen Einsparungspotentials an Entwicklungskosten wächst die wirtschaftliche Attraktivität komponentenbasierter Softwaresysteme. Durch das ihnen zugrunde liegende Bausteinprinzip vereinfacht sich zwar ihre Erstellung mittels vorgefertigter Softwareteile; allerdings sind zum Zuverlässigkeitsnachweis des integrierten Systems Verfahren zum systematischen Testen der Komponentenschnittstellen erforderlich, für die noch Forschungsbedarf besteht. Dieses Vorhaben soll deshalb die Integrationsphase systematisch unterstützen. Zu diesem Zwecke befasste sich das Projekt mit der Definition unterschiedlicher Testkriterien zur Bewertung des während der Integrationstestphase erzielten Grades an Schnittstellenüberdeckung. In Zusammenhang mit dieser Fragestellung wurde eine Reihe unterschiedlicher, zwischen den Komponenten bestehender Kopplungsarten identifi411 ziert, auf Basis derer entsprechende Teststrategien definiert wurden. Ihre Realisierbarkeit in der Praxis hängt im Wesentlichen von der Komplexität der Interaktion zwischen den jeweiligen Komponenten ab. Teilprojekt A: ”Entwicklung eines Testsystems für den Integrationstest” Um die Güte eines Integrationstests beurteilen zu können, sind geeignete Testkriterien notwendig. In diesem Teilprojekt wurden verschiedene Integrationstestkriterien auf der Basis des Überdeckungsgrads der Schnittstelle zwischen Softwarekomponenten formal definiert. Die ein Kriterium erfüllende Testauswahl lässt sich mittels einschränkender Bedingungen aus der Gesamtheit der möglichen Abläufe beschreiben. Dazu wurde ein Verfahren entwickelt, welches mittels einer Analyse des modellierten und zu integrierenden Systems, entsprechende formale Einschränkungen in OCL oder CTL generiert. Die Erfüllung der Kriterien kann somit anschließend automatisiert überprüft werden. Teilprojekt B: ”Ermittlung des Testaufwands beim Integrationstest” Die Auswahl geeigneter Integrationstestverfahren hängt im Wesentlichen von dem dazu erforderlichen Testaufwand ab. Ein Verfahren zur Bestimmung des mit unterschiedlichen Integrationsteststrategien verbundenen Aufwands wurde entwickelt. Zu diesem Zweck wurde für ausgewählte Überdeckungskriterien anhand der zugrunde liegenden UML-Diagramme der jeweiligen komponentenbasierten Anwendung der maximal erforderliche Aufwand etwa in Form von Anzahl und Länge zu testender Teilabläufe ermittelt. Das Vorgehen wurde in ein Werkzeug umgesetzt, das im Einzelfall die Auswahl der optimalen Teststrategie automatisch unterstützt. Im Berichtszeitraum wurden die Ergebnisse dieses Forschungsprojektes dahingehend aufbereitet, dass sie als Grundlage zur automatischen Generierung geeigneter Testfälle zur systematischen Schnittstellenüberprüfung (siehe Teilprojekt 2 des Projektes ”UnITeD – Automatische Testdatengenerierung zur Unterstützung inkrementeller modellund codebasierter Testprozesse für hochzuverlässige Softwaresysteme”) verwertet werden können. 19.1.8 Musterbasierte Analyse und Korrektur von Trace-Anomalien Projektleitung: Prof. Dr. Francesca Saglietti Beteiligte: Dipl.-Inf. (FH) Josef Adersberger Stichwörter: Traceability; Pattern; Antipattern Beginn: 1.10.2006 Kontakt: 412 Dipl.-Inf. (FH) Josef Adersberger Tel.: +49-9131-85-27878 Fax: +49-9131-85-28746 E-Mail: [email protected] Eine durchgängige Traceability aller Artefakte eines Software-Entwicklungsprozesses wird von bedeutenden Standards wie DO-178B, dem V-Modell XT und CMMI gefordert und deren durchgängige Gewährleistung sowohl in der Forschung als auch in der industriellen Praxis als elementarer Bestandteil der Software- und Systementwicklung in den Bereichen Verifikation/Validierung sowie Dokumentation angesehen und ist nicht zuletzt eine elementare Forderung zur Umsetzung von Produktlinienansätzen. So dürfen sicherheitskritische Systeme nicht mehr ohne den Nachweis einer durchgängigen Traceability in Einsatz gebracht werden – ausgehend von der Anforderung über das Modell zum Code und zu dessen Test. Die erfassten Traceability-Links, als Teil der Dokumentation eines Softwaresystems, dienen u.A. als Grundlage für folgende Analysen: • Auswirkung von Änderungen (Impact Analysis) • Rückverfolgbarkeit und Validierung (Derivation Analysis) • Überdeckungsmessung und Verifikation (Gap Analysis) Wie empirische Studien zeigen, ist die Traceability ein Prozess, der sich noch nicht auf breiter Front im Software Engineering durchgesetzt hat, obwohl die Vorteile, die man sich davon verspricht, groß sind. Gründe dafür sind eine fehlende allgemeingültige formale Definition im Sinne eines Traceability Modells, der niedrige Integrationsgrad der CASE Werkzeuge in Bezug auf die Traceability und der damit verbundene hohe Aufwand für Pflege und Analyse der Traceability-Links sowie die fehlenden Kenntnisse in Bezug auf die Evolution der Traceability im Projektverlauf. Was fehlt ist ein allgemeingültiger Ansatz zur systematischen, idealerweise quantifizierbaren Bewertung der Qualität der vorhandenen Link-Basis, um die Zuverlässigkeit einer Impact oder Derivation Analysis sicherzustellen und zur Identifikation von Trace-Anomalien weit über eine Gap Analysis hinaus. Ferner fehlen Ansätze, aus gefundenen Trace-Anomalien Korrekturmöglichkeiten ableiten zu können – auch schon in frühen Projektphasen. Folgende Teilaufgaben des Forschungsprojekts sind geplant: • Entwicklung eines Traceability Modells und Metamodells zusammen mit einem zentralen Traceability Repository zur Ablage und Strukturierung der Link-Basis unter dem Aspekt der Analysierbarkeit. Das Metamodell wird benötigt, um eine generische Sicht auf Traceability Modelle zu ermöglichen. Dabei werden auch die Möglichkeiten erforscht, Traceability Modelle zu visualisieren. 413 • Entwurf eines Rahmenwerks zur Analyse des Traceability Repository basierend auf der Graphentheorie. Es wird ein Katalog an Anti-Patterns und Metriken definiert, mit dem Ziel, Anomalien im Traceability Modell automatisiert identifizieren zu können. • Entwicklung von Ansätzen zur Korrektur von auffälligen Trace-Mustern als Erweiterung der bereits auf Code-Ebene bestehenden Refactoring Ansätzen auf alle Abstraktionsebenen der Software-Entwicklung. • Realisierung der Ansätze in einem Werkzeug, der Traceability Workbench zusammen mit Projektpartnern aus der Industrie. Im Jahr 2007 wurde ein Traceability Metamodell entwickelt und gegen gängige Methoden und Standards der Software- und Systementwicklung wie den Unified Process (UP), Automotive SPICE, die Quasar Methode sowie den AUTOSAR Standard in seiner Einsatztauglichkeit geprüft. Ferner wurde mit CoCoA ein Werkzeug im Rahmen einer Diplomarbeit entwickelt, das eine Integration von Java-Quellcode mit UML Modellen und darauf basierend modellübergreifende Metrikberechnungen ermöglicht. Ebenfalls wurde im Rahmen einer Studienarbeit mit der Entwicklung eines ersten Prototypen der Traceability Workbench auf Basis von Eclipse und openArchitectureWare begonnen. 19.1.9 Offline-Debugging für Continuous Function Charts Projektleitung: Prof. Dr. Francesca Saglietti Dipl.-Inf. Drexler Beteiligte: Tao, Weifei Stichwörter: Offline-Debugging; Continuous Function Charts Laufzeit: 15.2.2006–15.8.2006 Continuous Function Charts (CFC) bieten die Möglichkeit, Funktionen durch grafische Programmierung mittels Verschaltung bestehender Bausteine für HardwareSteuerungen zu definieren. Die Funktionen sind teilweise sehr umfangreich und komplex. Zudem ist häufig zum Zeitpunkt der Erstellung eines CFC beim Kunden noch nicht das zu programmierende Hardware-Gerät vorhanden. Daher ist zur Erkennung, Eingrenzung und Beseitigung von Fehlern ein Werkzeug zur Unterstützung des Offline-Debugging (d. h. in Abwesenheit der zu steuernden Ziel-Hardware) wünschenswert. 414 Im Rahmen dieser Kooperation wurden die Anforderungen für ein derartiges OfflineDebugging ermittelt. Dabei wurde untersucht, wie sich Aufzeichnung und Anzeige der Planeingangsgrößen, Planausgangsgrößen und planinternen Signale realisieren lassen. Anhand von Beispielen wurde aufgezeigt, wie sich dadurch das Debugging im Schrittbetrieb zur Fehlererkennung umsetzen lässt. Darauf aufbauend wurde ein Konzept zur Einbindung eines solchen DebuggingWerkzeugs in einen existierenden CFC-Editor für die Gerätefamilie SIPROTEC 4 des industriellen Kooperationspartners erarbeitet. 19.1.10 Softwarezuverlässigkeitsbewertung unter Berücksichtigung der mit vorgefertigten Komponenten gewonnenen Betriebserfahrung Projektleitung: Prof. Dr. Francesca Saglietti Beteiligte: Dipl.-Inf. Sven Söhnlein Dipl.-Inf. Herbert Reiter Stichwörter: Software-Zuverlässigkeit; Operationsprofile; Komponenten Beginn: 1.5.2003 Für sicherheitskritische Einsatzgebiete von Software-Systemen ist der Nachweis eines gewissen Grades an Softwarezuverlässigkeit notwendig und teilweise auch vorgeschrieben. Hierbei ist nicht die Anzahl der in der Software enthaltenen Fehler entscheidend, sondern ihr Auftreten während der Laufzeit. Die Zuverlässigkeitsbewertung erfolgt deshalb auf Basis einer dem Betriebsprofil möglichst entsprechenden Testphase. Wie in früheren Jahresberichten bereits dargestellt, befasste sich das Projekt zunächst mit der Erfassung der im Einsatz gewonnenen Betriebserfahrung und ihrer Visualisierung zum Zweck der Herleitung und Dokumentation entsprechender Operationsprofile. Hierzu wurde ein Werkzeug erstellt, mit welchem zu einer vordefinierten JavaKomponente, alle externen Methodenaufrufe mittels eines Wrappers zur Laufzeit protokolliert werden können. Die auf diese Weise umgesetzte Protokollierung der Aufrufe zur Laufzeit dient als Basis für weitere Untersuchungen, inwieweit eine objektive Entscheidung bezüglich des Bedarfs an Nachtesten vorgegebener, in einem neuen Kontext wiederzuverwendender Funktionalitäten systematisch herbeigeführt werden kann. Darauf aufbauend wurde in einem weiteren Teilprojekt die Erfassung der künftig zu erwartenden Software-Beanspruchung untersucht und an einem realen, medizinischen System zur Kalibrierung von Hörgeräten umgesetzt. Anhand dieser Information kann der Testprozess dem künftigen Einsatz dadurch angepasst werden, dass die Testfälle 415 mit einer betrieblich repräsentativen Häufigkeit ausgewählt werden. Damit lassen sich die Testergebnisse mit Hilfe von Zuverlässigkeitsmodellen unmittelbar in Kenngrößen zur Schätzung der operationalen Zuverlässigkeit übertragen. Im vergangenen Berichtszeitraum wurde damit begonnen den Einsatz statistischer Hypothesentests zur quantitativen Abschätzung der Zuverlässigkeit zu untersuchen. Hierbei können aus einer vorausgegangenen Testphase bzw. aus der bei früheren Einsätzen der Software gewonnenen Betriebserfahrung zu einer vorgegebenen Aussagesicherheit eine obere Schranke für die Versagenswahrscheinlichkeit bestimmt werden. Bei Wiederverwendung vorgefertigter Komponenten führt der Einsatz derartiger Schätzverfahren auf die Untersuchung der Komposition einzelner komponentenspezifischer Zuverlässigkeitsaussagen zu einer systembezogenen Gesamtaussage. Bestehende Ansätze lösen dieses Problem nur unzureichend, da sie entweder auf idealistischen Annahmen beruhen oder durch konservative Schätzungen an Aussagensschärfe verlieren. Ein verbesserter Ansatz zur Komposition von Vertrauensaussagen im Falle sich gegenseitig ausschließender Funktionalitäten wurde erarbeitet, der u.a. eine deutliche Reduktion des für eine Zuverlässigkeitsaussage erforderlichen Testumfangs bzw. der Betriebserfahrung ermöglicht. Im laufenden Berichtszeitraum wird vor allem die praktische Anwendbarkeit dieses Ansatzes untersucht. Zu diesem Zweck wurde eine industrielle Kooperation mit dem Ziele einer Erprobung der Einsetzbarkeit statistischer Testverfahren bei konkreten SoftwareSystemen initiiert. Zum einen soll hierbei analysiert werden, wie im Einzelfall die Vorrausetzungen gewährleistet werden können, die für die Anwendbarkeit der Theorie notwendig sind. Zum anderen wird untersucht, wie vorliegende Anwendungsdaten bezüglich des zu bewertenden Systems ausgewertet werden können um damit ein Operationsprofil zu erstellen bzw. die vorhandene Betriebserfahrung zu bewerten. Publikationen – Saglietti, Francesca: Certification and Licensing of Pre-Developed Components for Safety-Relevant Applications . In: Colnaric, M. ; Halang, W. A. ; Wegrzyn, M. (Hrsg.) : Real-Time Programming 2004 (WRTP 2004) (28th IFAC / IFIP Workshop on Real-Time Programming (WRTP 2004) and International Workshop on Software Systems (IWSS 2004), Istanbul (Turkey), 6 – 8 September 2004). Oxford : Elsevier for International Federation of Automatic Control (IFAC), 2005, S. 13 – 18. – ISBN 0-08-044582-9 – Saglietti, Francesca: Licensing Reliable Embedded Software for Safety-Critical Applications . In: Real-Time Systems, The International Journal of Time-Critical Computing Systems 28 (2004), Nr. 2/3, S. 217-236 416 19.1.11 Toolgestützte Integration vorgefertigter Softwarekomponenten auf Basis einer erweiterten Beschreibungssprache Projektleitung: Prof. Dr. Francesca Saglietti Beteiligte: Dipl.-Inf. Martin Jung Stichwörter: Softwarekomponenten; Integration; Bausteine Laufzeit: 1.12.2002–31.12.2006 Schnittstellen; Wiederverwendung; Die Tendenz zu schneller und kostengünstiger Erstellung von Software zunehmender Komplexität erhöht die Attraktivität wieder verwendbarer Softwareteile. Allerdings können größere Softwaresysteme nur unter der Annahme fehlerfreier Integration bestehender Komponenten kostengünstig und einfach aus Bausteinen zusammengesetzt werden. Infolge der momentan noch unzureichenden Ausdruckskraft von Beschreibungssprachen für Komponenten ist dies aber noch nicht gewährleistet. In den derzeit üblichen Beschreibungen von Komponenten finden sich Informationen syntaktischer Natur über die Komponentenschnittstellen, aber kaum Informationen über die Semantik angebotener Dienste oder den bisher beobachteten Anwendungskontext der Komponenten. Durch diesen Mangel an wesentlicher Information ist es nicht möglich, bei der Komponentenintegration Inkompatibilitäten aufzudecken oder rechtzeitig zu beherrschen, die sich aus Unstimmigkeiten unter den Komponenten oder zwischen den Komponenten und dem neuen Anwendungskontext ergeben. Ziel des laufenden Vorhabens ist es deshalb, ein Verfahren zur Unterstützung einer weitgehend automatischen und fehlerfreien Integration von Softwarekomponenten zu entwickeln. Von den geplanten Teilaufgaben wurden folgende bisher abgeschlossen: Klassifikation möglicher Inkonsistenzen: Um die Art und den Umfang der Informationen zu ermitteln, die in die erweiterte Beschreibungssprache aufgenommen werden müssen, wurde zunächst untersucht, welche Arten von Inkonsistenzen an den Schnittstellen von Komponenten bei der Integration auftreten können, die Ergebnisse wurden im Rahmen der internationalen Tagung PSAM7/ESREL’04 publiziert. Erstellung der erweiterten Beschreibungssprache: Die ermittelten Inkonsistenzklassen wurden hinsichtlich der zu ihrer Erkennung und Beherrschung notwendigen Informationen analysiert. Die Sprache UML 2.0 wurde derart erweitert, dass die Beschreibung 417 der Komponenten an Hand der Funktionen erfolgt, die die jeweiligen Komponenten an ihren Schnittstellen anbieten bzw. von außen benötigen, sowie an Hand ihres internen Verhaltens. Dazu wurde ein UML-Profil namens CCI (Consistent Component Integration) definiert. Zur Sicherstellung anzustrebender Eigenschaften der geplanten Anwendung können darüber hinaus zulässige Abläufe durch entsprechende Einschränkungen, zum Beispiel hinsichtlich Komponentenzustände oder hinsichtlich Nachrichtenflüsse zwischen den Komponenten beschrieben werden. Ein Werkzeug wurde implementiert, um vorgegebene Komponentenbeschreibungen auf Konformität zum definierten CCI-Profil zu prüfen. Beherrschung von Inkonsistenzen im integrierten System: Für eine vorgegebene Menge von Komponenten und eine zu implementierende Anwendung wurde die automatische Erkennung vorgegebener Inkonsistenzklassen in ein Werkzeug umgesetzt. Dazu generiert das entwickelte Werkzeug bei Bedarf Komponenten-Wrappers, die in Abhängigkeit von der erkannten Inkonsistenzart unterschiedliche Beherrschungsmaßnahmen einleiten, darunter z.B. dynamische Konversion von Parametern an den Schnittstellen oder Verzögerungen vorübergehend nicht zugelassener Nachrichten. Teilprojekt A: ”Verfolgbarkeit und Prüfbarkeit nichtfunktionaler Anforderungen in komponentenbasierten Softwaresystemen” (In Kooperation mit Continental TEMIC) In diesem Teilprojekt wurde untersucht, inwieweit sich ausgewählte nichtfunktionale Anforderungen von der Anwendungsebene auf die Komponentenebene übertragen und überprüfen lassen. Die entwickelte Vorgehensweise wurde exemplarisch für eine reale Anwendung aus der Automobilindustrie umgesetzt und angewandt. Teilprojekt B: ”Formale Erfassung und Auswertung funktionaler und nichtfunktionaler Metadaten mittels eines Repositories” Zum Zwecke einer möglichst vollständigen Erfassung bestehender Komponenten wurde in diesem Teilprojekt ein Konzept zur Beschreibung funktionaler (z.B. Prozeduren und Parameter) und nicht-funktionaler Informationen (z.B. Zeitverhalten, Betriebserfahrung, bestehende Testabdeckung) über Komponenten entwickelt und in die bestehende Komponentenbeschreibungssprache integriert. Passend zu den ermittelten Metadaten wurden Suchfunktionen implementiert, die in derartigen Komponenten-Repositories die gezielte Suche nach geeigneten wiederzuverwendenden Komponenten ermöglichen. Teilprojekt C: ”Konfiguration und Erstellung komponentenbasierter Softwaresysteme aus Repositories” In diesem Teilprojekt wurde ein Verfahren entwickelt und implementiert, das die Konfiguration komponentenbasierter Softwaresysteme zu beschreiben und den für die Verknüpfung der Komponenten notwendigen Programmcode (sog. ”Glue-code”) daraus 418 automatisch zu erzeugen erlaubt. Dabei wurden unter anderem unterschiedliche Verknüpfungsarten (z.B. Broker, direkte Verknüpfung oder Mischformen) untersucht und hinsichtlich daraus resultierender Systemeigenschaften, insbesondere Performance und Ausfallwahrscheinlichkeit, analysiert. Mittels der vorangehend beschriebenen, in Teilprojekten gewonnenen Einsichten und auf Basis zum Teil dabei implementierter bzw. kommerziell verfügbarer Werkzeuge und Modelltransformatoren wurde folgendes Gesamtkonzept zur sicheren Integration realisiert: 1. Einsatz eines Werkzeugs zur Modellierung der Komponenten und Systeme mittels UML: Durch Einsatz des Modellierungstools Poseidon lassen sich mittels eines generischen Schablonenprojektes alle für die CCI-Modellierung erforderlichen Stereotypen anlegen und bereitstellen. 2. Einlesen der Beschreibungen und Konversion in das CCI-Metamodell: Die mit Poseidon erstellten Modelle werden über implementierte Tools eingelesen, als Instanz des CCI-Metamodells interpretiert und in einem MDR (sog. metadata repository) gespeichert. 3. Prüfung der Anwendungsbeschreibungen und Erzeugung von Beherrschungsmechanismen: Das im MDR gespeicherte CCI-Modell der Komponenten und der Anwendung wird auf Inkonsistenzen bei der Integration hin untersucht. Werden Inkonsistenzen gefunden, so werden individuelle Wrappers für einzelne Komponenten sowie anwendungszentrale Elemente, welche den Zustand des gesamten Systems und die Interaktion aller Komponenten im System überwachen, erzeugt. 4. Erzeugung einer fertigen Anwendung aus dem Komponentencode und den Schutzmechanismen Die im Punkt 3 erzeugten Schutzmechanismen werden zusammen mit dem Code der Komponenten zu einer fertigen Anwendung verpackt, die dann ausgeliefert und zur Ausführung gebracht werden kann. Eine anzustrebende Fortsetzung der bisherigen Forschungsarbeiten besteht in einer weitgehend automatisierten Lokalisierung geeigneter, vorgefertigter Komponenten anhand erfasster funktionaler und nicht-funktionaler Eigenschaften, idealerweise auf der Basis semantischer Mustererkennung. Auf diesem Weg identifizierte, funktional äquivalente, jedoch unterschiedliche Komponenten können darüber hinaus eingesetzt werden, um Fehlertoleranz systematisch zu erzielen. 419 Publikationen – Saglietti, Francesca ; Jung, Martin: Classification, Analysis and Detection of Interface Inconsistencies in Safety-Relevant Component-based Systems . In: Spitzer, Cornelia ; Schmocker, Ulrich ; Dang, Vinh (Hrsg.) : Probabilistic Safety Assessment and Management, Volume 4 (PSAM7 – ESREL’04 Berlin 14 – 18 June 2004). London : Springer-Verlag, 2004, S. 1864 – 1869. – ISBN 1-85233-827-X – Jung, Martin ; Saglietti, Francesca ; Sauerborn, Verena: Beherrschung von Schnittstelleninkonsistenzen in komponentenbasierten Softwaresystemen . In: Federrath, Hannes (Hrsg.) : Sicherheit – Schutz und Zuverlässigkeit (Sicherheit 2005 Regensburg 5. – 8. April 2005). Bonn : Gesellschaft für Informatik, 2005, S. 101 – 112. (Lecture Notes in Informatics Bd. P-62) – ISBN 3-88579-391-1 – Jung, Martin ; Saglietti, Francesca: Supporting Component and Architectural Reusage by Detection and Tolerance of Integration Faults . In: IEEE Computer Society (Hrsg.) : High Assurance Systems Engineering (9th IEEE International Symposium on High Assurance Systems Engineering (HASE 2005) Heidelberg (D) 13 – 14 October 2005). Los Alamitos, California : IEEE Computer Society, 2005, S. 47-55. – ISBN 0-7695-2377-3 – Jung, Martin ; Saglietti, Francesca: Tolerieren von Inkonsistenzen in komponentenbasierten Systemen . In: Bode, A. (Editor der Research Report Series) ; Czornack, Jan-Thomas ; Stodden, Daniel ; Trinitis, Carsten ; Walter, Max (Hrsg.) : Diskussionskreis Fehlertoleranz 2005 (28. Diskussionskreis Fehlertoleranz, München, 10. – 11. März 2005). München : Shaker Verlag, 2005, S. 53-59. (Research Report Series, Lehrstuhl für Rechnertechnik und Rechnerorganisation (LRR-TUM), Technische Universität München Bd. 31) – ISBN 3-8322-4427-1 19.1.12 Vergleichende Bewertung unterschiedlicher Authentifizierungsstrategien Projektleitung: Dipl.-Inform. Dirk Wischermann Beteiligte: Fedorowicz, Lukas Laufzeit: 1.12.2006–31.12.2006 Die Integrität von Daten (einschließlich Programmcode), die Vertraulichkeit von Information und die Verfügbarkeit von Diensten sind typische Schutzziele, die sehr häufig bei der Entwicklung und im Betrieb von Software zu berücksichtigen sind. 420 Zu den wichtigsten Schutzzielen der Informationstechnologie gehört die zuverlässige, zeitgerechte und vertrauliche Ermittlung der Identität von Systembenutzern. Hierfür steht bereits eine Reihe unterschiedlicher Strategien zur Authentifizierung zur Verfügung, die im Wesentlichen durch wissensbasierte, besitzbasierte bzw. biometrisch basierte Verfahren geprägt sind. Welche (eventuell kombinierte) Verfahren sich im Einzelfall eignen, hängt von den jeweiligen Anforderungen des vorgegebenen Anwendungsbereichs ab. Dieses Projekt befasste sich mit der Identifikation und der Untersuchung der Faktoren, von denen die Entscheidung hinsichtlich optimaler Authentifizierungsstrategien abhängt, darunter Anzahl und Rollen der zu authentifizierenden Benutzer, sowie die der betrachteten Anwendung zugrunde liegenden Anforderungen bezüglich Performance, Genauigkeit, Zuverlässigkeit und Skalierbarkeit. Basierend auf den Ergebnissen wurden für den allgemeinen Fall eines Datenerfassungssystems klassische Risikoanalysen, etwa Fehlerbaumverfahren, eingesetzt, um Fehlerszenarien und Problemfälle möglichst systematisch und vollständig zu ermitteln und effiziente Maßnahmen zu deren Beherrschung, eventuell durch Vorgabe adäquater Rückfallebenen und Ausnahmebehandlungsmechanismen, zu definieren. Die Ergebnisse wurden abschließend beispielhaft in ein konkretes Datenerfassungssystem aus der Dienstleistungsindustrie praktisch umgesetzt. 19.1.13 Verifikation komponentenbasierter Softwaresysteme unter Einbeziehung bewiesener Komponenteneigenschaften Projektleitung: Prof. Dr. Francesca Saglietti Beteiligte: Dipl.-Inf. Johannes Drexler Dipl.-Inf. Marc Spisländer Stichwörter: Verifikation; Software-Komponenten Beginn: 1.7.2004 Die sehr hohe Komplexität heutiger Softwaresysteme führt dazu, dass ihre vollständige formale Verifikation kaum zu bewältigen ist. Für sicherheitskritische Systeme ist es allerdings nötig, zumindest einige für die Anwendung relevante Eigenschaften nachweisen zu können. Softwarekomponenten sind in sich abgeschlossene Softwarebausteine mit einer definierten Schnittstelle. Solche Komponenten können zu einem Gesamtsystem integriert werden. Der Vorteil dieses Ansatzes liegt darin, dass die Komponenten wiederverwendet 421 werden können; eventuell können Komponenten von externen Anbietern hinzugekauft werden. Die Komplexität komponentenbasierter Systeme ist, sowohl durch die Wiederverwendung bewährter Komponenten als auch durch die höhere Verständlichkeit dank der Bausteinzerlegung, leichter zu bewältigen. Dieser komponentenbasierte Ansatz bietet darüber hinaus auch die Möglichkeit, den Verifikationsaufwand zu verringern. Dazu müssen Komponenteneigenschaften, die anhand der Komponenten überprüft wurden, dokumentiert worden sein. Mittels einer Beschreibung des Systems sollen – von den Komponenteneigenschaften ausgehend – die Systemeigenschaften abgeleitet werden. Für erwünschte, aber noch nicht ableitbare Systemeigenschaften sollen zusätzliche Komponenteneigenschaften ermittelt werden, aus denen sich erstere herleiten lassen. Mittels Wrappers sollen anschließend die erforderlichen Komponenteneigenschaften erzwungen werden. Das Projekt beschäftigte sich zunächst mit einer Untersuchung bestehender Komponenten- und Systembeschreibungssprachen. Zu diesem Zwecke wurden mehrere Architekturbeschreibungssprachen (engl. Architectural Description Language, ADL) untersucht und vergleichend bewertend. Dabei wurde ermittelt, in wieweit es diese Sprachen ermöglichen, Aktoren und Sensoren, die durch Komponenten angesteuert werden sowie die Interaktionen zwischen diesen Aktoren und Sensoren zu beschreiben. Insbesondere wurde dabei ermittelt, welche Sprachen eine systemunabhängige Komponentenbeschreibung erlauben. Ein formales Modell zur Beschreibung des Komponentenverhaltens wurde entwickelt, welches durch eine einfache Transformation auf eine Kripke-Struktur abgebildet werden kann. Dies ergibt eine formale Basis mit Schlussregeln zur Herleitung von Systemeigenschaften aus Komponenteneigenschaften. Darauf aufbauend wurde untersucht, inwieweit mittels Model-Checker die Einhaltung relativer Zeitanforderungen überprüft werden kann. Dazu gehören beispielsweise Anforderungen an die Konsistenz von Dienstaufrufen und Komponentenzuständen sowie Anforderungen bezüglich der Reihenfolge vorgegebener Dienstaufrufe. Zu diesem Zwecke wurde ein Verfahren entwickelt, das zu einer vorgegebenen relativen Zeitanforderung eine entsprechende Menge von Aussagen in der Computation Tree Logic (CTL) ermittelt, welche anschließend einzeln auf Gültigkeit überprüft werden. Auf diese Weise erhält man bereits während der Komponentenintegration allgemeingültige Aussagen darüber, unter welchen spezifischen Bedingungen die jeweils betrachteten, relativen Zeitanforderungen verletzt werden. Teilprojekt A: ”Bewertung und Vergleich von Verfahren zur Analyse der Aussagekraft von Model-Checking-Nachweisen” Im Rahmen dieses Teilprojektes wurden mehrere Verfahren zur Analyse der Aussagekraft von Model-Checking-Nachweisen (u. a. Vacuity Detection, Model Checking Co422 verage, Witness Generation) untersucht. Ein Vergleich der ermittelten Verfahren, insbesondere in Hinblick auf die zugelassenen temporalen Logiken und auf die Aussagekraft der gelieferten Information, u. a. für eine eventuelle Fehlersuche, wurde durchgeführt. Um die Anwendung der untersuchten Verfahren zu erleichtern, wurde ein Werkzeug implementiert, das möglichst viele der identifizierten Verfahren mit Hilfe des Model Checkers NuSMV realisiert und die Ergebnisse weit möglichst visualisiert. Ausblick: Ein weiterer Schritt in diesem Forschungsprojekt besteht darin, aus den Eigenschaften der Komponenten auf die Eigenschaften des Gesamtsystems schließen zu können. Für Systemeigenschaften, die sich aus den vorgegebenen Komponenteneigenschaften nicht herleiten lassen, ist ein Verfahren anzustreben, welches zusätzliche Komponenteneigenschaften herzuleiten erlaubt, die einen Inferenzschluss auf die Gültigkeit der nachzuweisenden Systemeigenschaften ermöglichen. 19.2 Publikationen – Saglietti, Francesca: Interaktion zwischen funktionaler Sicherheit und Datensicherheit . In: Dittmann, Jana (Hrsg.) : Sicherheit 2006 (3. Jahrestagung ”Sicherheit – Schutz und Zuverlässigkeit” Magdeburg (D) 20. – 22. Februar 2006). Bd. P77. Bonn : Gesellschaft für Informatik, 2006, S. 373 – 383. (Lecture Notes in Informatics Bd. P-77) – ISBN 3-88579-171-4 – Saglietti, Francesca: Sicher ist sicher – Einheitliche Betrachtung von Funktionsund Informationssicherheit . In: ¡kes¿ – Die Zeitschrift für InformationsSicherheit 4 (2006), Nr. August / September 2006, S. —, ISSN 1611-440-X – Saglietti, Francesca ; Oster, Norbert (Hrsg.): Computer Safety, Reliability, and Security . (26th International Conference, SAFECOMP 2007 Nuremberg 18. 21.9.2007) Bd. 4680. Berlin Heidelberg : Springer-Verlag, 2007 (Lecture Notes in Computer Science) . – 548 Seiten. ISBN 3-540-75100-9. ISSN 0302-9743 – Saglietti, Francesca: Einheitliche Modellierung von funktionaler Sicherheit und Datensicherheit .Vortrag: Arbeitskreis Begriffsbildung des GI-Fachbereichs ”Sicherheit”, Universität Mannnheim, Mannheim, 2007 19.3 – Studien- und Abschlussarbeiten Diplomarbeit: Spezifikation, Entwurf und Implementierung einer multiagentenbasierten Simulation Bearbeiter: Arthur Herzog (beendet am 30.4.2006) Betreuer: 423 – Studienarbeit: Statische und dynamische Analyse der Bedingungsüberdeckung objektorientierter Java-Programme Bearbeiter: Dominik Schindler (beendet am 8.5.2006) Betreuer: Dr.-Ing. Norbert Oster – Studienarbeit: Formale Erfassung und Auswertung funktionaler und nichtfunktionaler Metadaten mittels eines Repositories Bearbeiter: Mattauch Frank (beendet am 14.5.2006) Betreuer: – Studienarbeit: Untersuchung der neuen Testmöglichkeiten von Visual Studio 2005 anhand eines ausgewählten Programms zur Fahrleitungsprojektierung Bearbeiter: Jasmina Zlender (beendet am 22.5.2006) Betreuer: Dr.-Ing. Norbert Oster – Studienarbeit: Entwicklung eines Testtreibergenerators für objekt-orientierte Java-Komponenten Bearbeiter: Johannes Ostler (beendet am 25.7.2006) Betreuer: Dr.-Ing. Norbert Oster – Master Thesis: Offline-Debugging für Continuous Function Charts Bearbeiter: Weifei Tao (beendet am 26.7.2006) Betreuer: – Studienarbeit: Konfiguration und Erstellung komponentenbasierter Softwaresysteme aus Repositories Bearbeiter: Christoph Elsner (beendet am 31.7.2006) Betreuer: – Diplomarbeit: Bewertender Vergleich und Erweiterung unterschiedlicher UMLModellsimulatoren zur Bestimmung der Modellüberdeckung Bearbeiter: Dominik Schindler (beendet am 10.01.2007) Betreuer: – Diplomarbeit: Anforderungsanalyse und Implementierung von Störfallsimulatoren Bearbeiter: Wang Gang (beendet am 1.3.2007) Betreuer: Dipl.-Inf. Florin Pinte – Studienarbeit: Anforderungsanalyse und bewertender Vergleich von SoftwareDokumentationssystemen Bearbeiter: Konstantin Harwart (beendet am 19.3.2007) Betreuer: Dipl.-Inf. Sven Söhnlein – Diplomarbeit: Einsatz statistischer Verfahren zur Klassifizierung der Symptomatik und zur Schätzung der Zuverlässigkeit softwarebasierter Systeme Bearbeiter: Feng Yao (beendet am 17.04.2007) Betreuer: Dipl.-Inf. Sven Söhnlein – Studienarbeit: Vergleichende Bewertung unterschiedlicher Authentifizierungsstrategien im Zusammenhang mit der Analyse und der Implementierung eines Erfassungssystems Bearbeiter: Lukas Fedorowicz (beendet am 04.06.2007) Betreuer: Dipl.-Inform. Dirk Wischermann 424 – Master Thesis: Untersuchung verschiedener Model Checking Werkzeuge bzgl. ihrer Eignung für den Einsatz in der Telekommunikation Bearbeiter: Yang Yang (beendet am 1.9.2007) Betreuer: Dipl.-Inf. Marc Spisländer – Master Thesis: Komponentenarchitekturen und Kommunikationsmechanismen für Simulationswerkzeuge Bearbeiter: Lei Xue (beendet am 28.09.2007) Betreuer: Dr.-Ing. Norbert Oster – Diplomarbeit: Kohäsions– und Kopplungs-Analyse in komponentenorientierten Systemen Bearbeiter: Zengyu Lu (beendet am 1.12.2007) Betreuer: Dipl.-Inf. (FH) Josef Adersberger 425 20 Lehrstuhl für Informatik 12 (Hardware-SoftwareCo-Design) Anschrift: Am Weichselgarten 3, 91058 Erlangen Tel.: +49-9131-85-25148 Fax: +49-9131-85-25149 E-Mail: [email protected] Leitung: Prof. Dr.-Ing. Jürgen Teich Professoren: Prof. Dr.-Ing. Jürgen Teich Prof. Dr. rer. nat. Rolf Wanka Sekretariat: Margaret Formago, M.A. Wiss. Mitarbeiter: Dipl.-Inf. Josef Angermeier Hritam Dutta, M. Sc. Dipl.-Inf. Jens Gladigau Dipl.-Inf. Michael Glaß Dipl.-Ing. Diana Göhringer Dipl.-Ing. Ferdinand Großmann Dipl.-Ing. Frank Hannig Dipl.-Inf. Matthias Hartl Dr.-Ing. Christian Haubelt Dipl.-Inf. Sabine Helwig Dipl.-Inf. Dmitrij Kissler Dipl.-Ing. Dirk Koch Dipl.-Ing. Alexey Kupriyanov Dipl.-Inf. Martin Lukasiewycz Dipl.-Ing. Mateusz Majer Dipl.-Inf. Felix Reimann Dipl.-Inf. Holger Ruckdeschel Dipl.-Inf. Thomas Schlichter Dipl.-Ing. Thilo Streichert Dipl.-Inf. Martin Streubühr Dipl.-Inf. Stefan Wildermann Dipl.-Ing. Daniel Ziener Weitere Doktoranden: Dipl.-Ing. Joachim Keinert 426 Dipl.-Phys. Bernhard Niemann Nichtwiss. Personal: Edwin Aures Dipl.-Phys. Andreas Bininda Dipl.-Ing. (FH) Joachim Falk Alumni: Dr.-Ing. Ali Ahmadinia Dr.-Ing. Marcus Bednara Prof. Dr. Christophe Bobda Dr.-Ing. Sanaz Mostaghim Prof. Dr.-Ing. Frank Slomka Der Lehrstuhl Hardware-Software-Co-Design wurde 2003 durch die Berufung des Lehrstuhlinhabers, Prof. Dr.-Ing. Jürgen Teich, neu eingerichtet. Im Oktober 2004 wurde die dem Lehrstuhl zugeordnete C3-Professur für Effiziente Algorithmen und Kombinatorische Optimierung durch Prof. Dr. Rolf Wanka besetzt. Die Ziele des Hardware-Software-Co-Designs bestehen darin, • die Wechselwirkungen von Hardware- und Softwareentwicklung zu untersuchen, und dabei insbesondere das Co-Design zu realisieren, d.h. den integrierten Entwurf von Systemen, die sowohl aus Hardware- als auch aus Softwarekomponenten bestehen. Vor dem Hintergrund der Komplexität integrierter HardwareSoftware-Systeme erfordern diese Systeme den Einsatz von Entwurfsmethoden, mit denen effiziente Hardware- und Softwarekomponenten gemeinsam entworfen werden können, wobei es auch darauf ankommt, Entwurfsalternativen abzuwägen. • für die Praxis Hardware-Software-Systemlösungen zu entwickeln und zu betreiben, die den technologischen Fortschritt, die fortschreitende Automatisierung höherer Entwurfshierarchien, die zunehmende Komplexität der Anwendungen insbesondere im Kontext der Rekonfigurierbarkeit und kostenoptimierte Realisierungen ausgewogen unterstützen. • Algorithmen zu entwickeln und zu analysieren, die die vorhandenen Ressourcen effizient nutzen und dabei u.a. Methoden des Online Computing, der Approximationsverfahren und des Organic Computing anwendet. Die Anwendungsgebiete, auf denen der Lehrstuhl arbeitet, umfassen insbesondere • Eingebettete Systeme, z.B. im Bereich der Automobilelektronik, 427 • effiziente Lösungen für Spezialaufgaben, z.B. im Bereich der Bildverarbeitung, mit Hilfe modernster rekonfigurierbarer Systeme wie der Erlangen Slot Machine (ESM), und • Autonome Systeme, z.B. im Bereich der Robotik. Prof. Teich ist Mitglied in zwei europäischen Networks of Excellence: • European Network of Excellence on Embedded Systems Design (Artist) • European Network of Excellence on High-Performance Embedded Architecture and Compilation (HiPEAC) Des Weiteren ist Prof. Teich Mitbegründer des Embedded Systems Institute (ESI). Für weitere Informationen siehe http://www.esi.uni-erlangen.de. 20.1 Forschungsschwerpunkte Die Arbeitsgebiete des Lehrstuhls umfassen alle Aspekte des systematischen Entwurfs (CAD) eingebetteter Systeme, speziell die Arbeitsgebiete Ablaufplanung (Scheduling), Platzierung, Verdrahtung sowie Lastverteilung. Untersucht werden insbesondere innovative und adaptive Rechnerstrukturen und Spezialprozessoren (ASIPs, RISPs) und deren Programmierung sowie die Entwicklung von Methoden und Werkzeugen wie Simulatoren, Compiler und Prototypen. Ferner: Diskrete Optimierungsmethoden, insbesondere lokale und globale Suchverfahren, lineare Programmierung, Mehrzieloptimierungsverfahren und deren Anwendung im Kontext der optimalen Auslegung technischer Systeme. Gruppen • Effiziente Algorithmen und Kombinatorische Optimierung Leitung: Rolf Wanka Die Arbeitsgruppe ”Effiziente Algorithmen und Kombinatorische Optimierung” untersucht Fragestellungen aus dem Bereich des Parallelen Rechnens, der algorithmischen Graphentheorie und der Optimierung durch Meta-Heuristiken. Im Gebiet des Parallelen Rechnens werden sog. Basis-Algorithmen wie das effiziente Routing, die geschickte Lastbalancierung und das schnelle Sortieren erforscht. Wie gut man diese algorithmischen Aufgabe lösen kann, hängt häufig von einer graphentheoretischen Eigenschaft des Parallelrechners ab, auf dem sie behandelt wird, dem 428 sog. Spektrum. Deswegen bestimmen wir für populäre Graphen, die als ParallelrechnerTopologien genutzt werden, diese Spektren. Diese Methoden werden übertragen auf die Untersuchung von modernen Peer-to-Peer-Netzwerken oder die Relevanz-Bewertung von einzelnen Datensätzen. Kombinatorische Aufgaben wie die Lösung des Erfüllbarkeitsproblems, die Berechung von Rundreisen und Wegeplanung für Fahrzeuge sind meist nur sehr langsam exakt zu bewältigen, weshalb wir für diese Probleme Näherunglösungen entwickeln. Häufig stößt man auf Optimierungsaufgaben, bei denen es nicht bekannt ist, wie die Zielfunktion, die z.B. minimiert werden soll, konkret aussieht. Deswegen untersuchen wir sog. Meta-Heuristiken, die gute Ergebnisse erzielen können, ohne dass man die Zielfunktion explizit kennt. Diese Methoden lassen sich auch anwenden, wenn die Zielfunktion zwar bekannt ist, es aber kein individuelles Optimierungsverfahren gibt. • System-Level Design Automation Leitung: Christian Haubelt Innerhalb der Arbeitsgruppe ”System-Level Design Automation” werden die wesentlichen Themen zum automatischen Entwurf eingebetteter Hardware-Software-Systeme auf Systemebene erforscht. Hierzu gehören u. a. die Bereiche Modellierung, Systemsynthese, Optimierung und die Verifikation eingebetteter Systeme. Eine der wesentlichen Zielsetzungen dieser Gruppe ist hierbei die Unterstützung neuer Entwurfsparadigmen, wie adaptive Applikationen und hardwarerekonfigurierbare Architekturen, für die es bis heute keine geschlossene Entwurfsmethodik gibt. Momentane Entwicklungen zeigen aber deutlich die Notwendigkeit, für formale Methoden auf einem hohen Abstraktionsniveau durch die es erst möglich wird, Produkte in annehmbarer Zeit beweisbar korrekt zu entwickeln. Hierbei spielt auch die Integration der Entwurfsmethodik in einen auf Programmiersprachen basierenden Entwurfsfluss eine große Rolle. Zurzeit werden zwei Projekte konkret innerhalb der Gruppe ”System-Level Design Automation” bearbeitet, die die Kernaufgaben des automatischen Entwurfs eingebetteter Hardware-SoftwareSysteme abdecken. • Architecture and Compiler Design Leitung: Frank Hannig Mikroprozessoren sind heutzutage allgegenwärtig, sie werden in technischen Produkten eingesetzt, in denen man bis vor kurzem noch gar keine ’Computer’ erwartet hat: Mobiletelefone, Haushaltsgeräte, Medizintechnik, Unterhaltungstechnik, Automobiltechnik und Gebäudeautomatisierung, um nur ein paar Anwendungsgebiete zu nennen. 429 Gegenüber herkömmlichen Computern (PC, Arbeitsplatzrechner, etc.) sind diese so genannten ’eingebetteten’ Systeme in hohem Maß auf eine bestimmte Klasse von Anwendungen spezialisiert. Die große Spezialisiertheit erfordert hinsichtlich mehrerer Kriterien optimierte Systeme. Zumeist haben eingebettete Systeme hohe Anforderungen an Rechenleistung, Kosten oder den Energieverbrauch. Neben den Fertigungskosten spielen die Entwicklungskosten und immer kürzer werdende Time-to-market-Zyklen eine wichtige Rolle. Deshalb versuchen wir in der Arbeitsgruppe ”Architecture and Compiler Design” den Zyklus beim Entwurf anwendungsspezifischer Prozessoren zu verkürzen. Hierzu werden folgende Forschungsfelder betrachtet: CAD-Werkzeuge zur Modellierung, Simulation und Generierung von Architekturen, und Compiler und Methoden zur Abbildung von Algorithmen auf diese Architekturen. Es werden sowohl mikroprogrammierbare Prozessoren als auch dedizierte Hardware untersucht. Ziel beim Entwurf von mikroprogrammierbaren anwendungsspezifischen Prozessoren ist eine Architektur und Compiler Co-Generierung optimiert für eine ganze Klasse von Algorithmen (Benchmark). Viele Anwendungen, die einen hohen Datendurchsatz benötigen, können auch direkt in einem dediziert massiv parallelen System implementiert werden, d. h. ein höchstoptimiertes System (z. B. ein Coprozessor) realisiert genau eine Anwendung. Aus den unterschiedlichen Zielarchitekturen (programmierbar oder dediziert) ergibt sich ein Trade-off zwischen Hardware-Software-Lösungen. Ein Lösungsansatz stellen hier rekonfigurierbare Architekturen dar. Rekonfigurierbare Rechenfelder und Prozessoren sind daher ein aktueller Bestandteil unserer Forschung. • Reconfigurable Computing Leitung: Jürgen Teich Ziel der Aktivitäten in der Gruppe ”Reconfigurable Computing” ist die Erforschung von Grundlagen für den Entwurf von Rechensystemen, die die Fähigkeit besitzen, ihr Verhalten und ihre Struktur aus Effizienz- und Optimalitätsgründen an sich ändernde Anforderungen, Betriebs- und Umgebungsbedingungen dynamisch anzupassen, z.B. an neue Protokolle und Standards, andere physikalische Randbedingungen oder veränderliche Optimierungsziele. Aufgrund immer kürzer werdender Lebenszeiten von technischen Produkten werden solche Systeme mit der Fähigkeit der Rekonfigurierbarkeit auf unterschiedlichen Granularitätsebenen der Hardware immer wichtiger, denn nur sie sind in der Lage, für ein zur Entwurfszeit oft noch unklares Spektrum an unterschiedlichen Anforderungen jeweils optimale Lösungen zu bieten und hohe Redesignzeiten zu vermeiden. Auch lassen sich mit rekonfigurierbaren Lösungen, insbesondere in Verbindung 430 mit geringen Stückzahlen, die Produktionskosten optimieren. Mit den erwarteten Erkenntnissen können in der Zukunft wiederum Ideen für neue Produkte, so z.B. selbstrekonfigurierende oder gar selbstheilende Rechensysteme, entstehen. Als zentrale Problembereiche im Zusammenhang mit dem Entwurf rekonfigurierbarer Rechensysteme werden die Themenkomplexe Mechanismen und Effizienz der Rekonfiguration, Sprachen und Modelle, Entwurfsmethodik sowie Architekturen und Anwendungen untersucht. Die Forschungsaktivitäten im Bereich ”Rekonfigurierbare Rechensysteme” werden von der DFG im Rahmen des Schwerpunktprogramms SPP 1148 ”Rekonfigurierbare Rechensysteme” durch die Finanzierung von zwei Projekten gefördert. • Assoziierte Projektgruppe Hardware-Software-Co-Design (am Fraunhofer Institut für Integrierte Schaltungen (IIS)) Leitung: Marcus Bednara Die Projektgruppe Hardware-Software-Co-Design ist der Abteilung Bildsensorik des IIS angegliedert, da hier ein weites Spektrum von Anwendungsmöglichkeiten und Potenzialen intelligenter eingebetteter Systeme besteht. Die Herausforderung der Zukunft liegt in der Beherrschung komplexer technischer Systeme, die gleichsam aus Hard- und Software-Komponenten bestehen. Die beim Systementwurf auftretenden Probleme sind seit langem bekannt, und es existieren leistungsfähige Verfahren zur Simulation und Synthese der Einzelkomponenten. Bisher fehlen jedoch Werkzeuge zur Verifikation des Gesamtsystems, zur automatischen Schnittstellensynthese und zur frühen Exploration von Entwurfsalternativen. Sollen Systeme darüber hinaus die inhärente Fähigkeit der ”Intelligenz” besitzen, muss die Systemauslegung sogar dynamisch zur Laufzeit und vom System selbst durchführbar sein. Typische Beispiele findet man etwa bei: Intelligenten bildverarbeitenden Systemen, Contentbasierter Datenverarbeitung, Selbstlernenden und -heilenden Geräten. Hauptanwendungsgebiete sind kommunizierende eingebettete Systeme aus den Bereichen Body-Area-Networks, Automobilelektronik und intelligente Kamerasysteme. Die kürzlich begonnenen Arbeiten sind im Folgenden beschrieben. Wir untersuchen gemeinsam neuartige Implementierungen des Motion JPEG2000Standards, insbesondere die parallele Implementierung von Entropie-Kodierern. Ziel ist es, eine leistungsfähige Realisierung auf der Basis eines Co-Designs mit Mikroprozessor und FPGA-Bausteinen zu erreichen, die eine Kodierrate von mindestens 25 Bildern pro Sekunde bei einer Auflösung von 1920 x 1080 Bildpunkten erreicht. Des Weiteren gibt es gemeinsame Arbeiten im Bereich intelligenter Kamerasysteme (CogniCam). Ziel ist es hier, eingebettete Kamerasysteme zu untersuchen, die intelligent und adaptiv dynamische Aufgaben durchführen können. Die Intelligenz solcher 431 Kamerasysteme soll speziell durch eine kombinierte aktive Steuerung bzw. Regelung von Dynamik, Bildausschnitt, Farbabgleich, Auflösung, Aufnahmegeschwindigkeit, Fokus, Helligkeit und Zoom erreicht werden. Die speziellen Herausforderungen liegen dabei u. a. auch in einer höchsteffizienten Implementierung von Kamerasystemen mit diesen Eigenschaften. Schließlich existiert eine weitere Kooperation im Bereich des Co-Designs mit der Entwurfssprache SystemC, und der Abteilung Digitaler IC-Entwurf. Hier wird untersucht, wie weit sich Entwurfsverfeinerungen innerhalb von SystemC darstellen lassen und komplexe Systeme modelliert und simuliert werden können. 20.2 Kooperationsbeziehungen • DaimlerChrysler AG, Böblingen • ETH Zürich, Institut für Technische Informatik und Kommunikationsnetze (Prof. Dr. L. Thiele) • ETH Zürich, Institut für Technische Informatik und Kommunikationsnetze (Dr. E. Zitzler) • Fraunhofer Institut für Integrierte Schaltungen (IIS), Erlangen • IBM Deutschland Entwicklung GmbH, Böblingen • Intel, Santa Clara • Infineon AG, München • EADS, München • Alcatel Lucent Technologies GmbH, Nürnberg • Siemens AG, Medical Solutions, Forchheim • Softgate GmbH, Erlangen • Technische Universität Braunschweig, Institut für Datentechnik und Kommunikationsnetze (Prof. Dr. R. Ernst) • Technische Universität Braunschweig, Mathematik (Prof. Dr. S. Fekete) • Technische Universität Chemnitz (Prof. Dr. W. Hardt) • Technische Universität Dresden (Prof. Dr. R. Merker) 432 • Universität Karlsruhe, Forschungszentrum für Informatik (FZI) (Prof. Dr. J. Becker) • University of Maryland, UMIACS (Prof. Dr. S. S. Bhattacharyya) • Universität Paderborn (Prof. Dr. F. Meyer auf der Heide) • Universität Paderborn (Prof. Dr. M. Platzner) • Xilinx Inc., San Jose • Cadence Design Systems Inc., San Jose • Altera, San Jose • Mentor Graphics Corp., München • Forte Design Systems, San Jose 20.3 Forschungsprojekte 20.3.1 AIS – Autonome Integrierte Systeme Projektleitung: Prof. Dr.-Ing. Jürgen Teich Beteiligte: Dipl.-Ing. Daniel Ziener Laufzeit: 1.12.2006–30.11.2009 Förderer: Bundesministerium für Bildung und Forschung edacentrum e.V. Mitwirkende Institutionen: Technische Universität Braunschweig (TUB-IDA) Technische Universität Kaiserslautern (TUK-EMS) Technische Universität München (TUM-LIS) Universität Paderborn (UPB-HNI) Eberhard Karls Universität Tübingen (UTU-TI) In den heutigen Produkten werden für die elektronischen Kommunikationsknoten häufig ”Multi Processor Systems on Chip” (MPSoC) eingesetzt. Mit ihnen können komplexe heterogene Systeme gesteuert und Informationen übertragen werden. Robustheit, Zuverlässigkeit und Sicherheit sind notwendige Anforderungen an gegenwärtige MPSoC. Durch die Komplexität künftiger SoCs werden Realisierungen ”lernen” und 433 in der Lage sein müssen, mit permanenten und temporären, sporadisch auftretenden Schaltungsdefekten zu ”leben”. Systeme mit deren Module müssen dabei entworfen werden, dass auch bei schwierigen oder störanfälligen Produktionsumgebungen noch die notwendigen Anforderungen des Systems erfüllen können. Das Clusterforschungsprojekt AIS hat sich zum Ziel gesetzt, eine neue Entwurfsmethodik für autonome integrierte Systeme zu erforschen, um die oben genannten Anforderungen zu erfüllen. Mit dieser neuen Entwurfsmethodik werden Architekturkomponenten mit autonomen Eigenschaften dimensioniert und Komponenten in einem Explorations- und Integrationsprozess auf Systemebene mit einer Betriebssystemumgebung kombiniert. Zur Validierung werden prototypische Implementierungen erarbeitet und die Interoperabilität demonstriert. Die neue Entwurfsmethodik ermöglicht es, Systeme zu entwickeln, die Fehler, Störungen und Veränderungen bei der Zuverlässigkeit einzelner Komponenten erkennen sowie entsprechende Gegenmaßnahmen treffen. Dazu werden autonome Elemente im Systementwurf eingeführt, die Kontrollpfade, Datenpfade und Kommunikationsstrukturen der funktionalen Ebene überwachen und auf veränderte Betriebsbedingungen sowie Fehlverhalten reagieren. Auch werden Dienste erforscht, die das Betriebssystem zur Selbstoptimierung und Selbstheilung durch Replikation, Überwachung und Migration auf der Basis zuverlässiger Kommunikationsstrukturen einsetzt. Der Lehrstuhl Informatik 12 forscht mit dem Ziel, die Zuverlässigkeit von Kontrollpfaden in MPSoC-Komponenten mit geeigneten Hardware- und SoftwareMaßnahmen zu gewährleisten bzw. zu erhöhen. Speziell wird dies durch autonome Überwachungseinheiten erreicht, die Fehler in der Programmausführung von Prozessoren sowie der Kontrolllogik von Hardware-Modulen erkennen, bewerten und korrigieren. Ein besonderes Augenmerk wird auf auftretende Speicherfehler wie ”Soft Errors”, aber auch auf gezielte lokale Attacken auf Kontrolllogikeinheiten gelegt. Dies beinhaltet sowohl die Kontrolle der korrekten Zustandsüberführung als auch der korrekten Zustandsspeicherung. Es werden Methoden erforscht, die den Kontrollfluss überwachen sowie reversible und nichtreversible Maßnahmen im Fehlerfall einleiten wie zum Beispiel die Terminierung durch erzwungene Überführung in ”sichere” Zustände oder aber automatische Ablaufkorrekturen. 20.3.2 Approximationsalgorithmen Projektleitung: Prof. Dr. rer. nat. Rolf Wanka Beginn: 1.11.2004 434 Man vermutet, dass NP-vollständige Probleme nicht in Polynomzeit gelöst werden können. Trotzdem müssen für Eingaben solcher Probleme zulässige Lösungen – unter Verzicht auf Optimalität, aber möglichst gut – berechnet werden, solange sie nur schnell erhalten werden. Beim Entwurf schneller und guter derartiger Approximationsalgorithmen für kombinatorische Optimierungsprobleme ist es oft eine ganz große Herausforderung, die Qualität der erzielten Lösung in Beziehung zur optimalen Lösung, deren Wert ja unbekannt ist, zu setzen. Ein weiterer wichtiger Aspekt eines Approximationsalgorithmus ist der, für diesen Algorithmus Eingaben anzugeben, sog. Zeugen, bei denen er Ausgaben erzeugt, die sehr weit weg von optimalen Lösung sind. Insbesondere im Gebiet der Approximationsalgorithmen für das sog. Rundreiseproblem gibt es eine Reihe von Heuristiken, bei denen die Lücken zwischen Leistungsgarantien und Zeugen sehr groß sind. In diesem Forschungsbereich wollen wir gute Zeugen gegen einiger dieser Heuristiken entwerfen. Im Rahmen dieses Projekts leitete Prof. Wanka zusammen mit Prof. Dr. Ernst W. Mayr von der TU München im Rahmen der Sommerakademie der Studienstiftung des Deutschen Volkes in Görlitz vom 2. bis 15. September 2007 den Kurs Wie genau ist un” gefähr?“. 20.3.3 Architekturmodellierung und Exploration von Algorithmen für die medizinische Bildverarbeitung Beteiligte: Dipl.-Ing. Frank Hannig Hritam Dutta, M. Sc. Laufzeit: 1.3.2005–31.10.2006 Förderer: Siemens AG Medical Solutions, Forchheim Kontakt: Dipl.-Ing. Frank Hannig Tel.: +49-9131-85-25153 Fax: +49-9131-85-25149 20.3.4 Automatische Generierung von Testfällen aus formalen Spezifikationen Beteiligte: Dr.-Ing. Christian Haubelt Laufzeit: 1.11.2005–31.5.2006 435 Förderer: Lucent Technologies Network Systems GmbH 20.3.5 Co-Design massiv parallel eingebetteter Prozessorarchitekturen Projektleitung: Prof. Dr.-Ing. Jürgen Teich Beteiligte: Dipl.-Ing. Frank Hannig Dipl.-Ing. Alexey Kupriyanov Hritam Dutta, M. Sc. Dipl.-Inf. Dmitrij Kissler Laufzeit: 1.1.2005–31.12.2008 Förderer: Deutsche Forschungsgemeinschaft Kontakt: Dipl.-Ing. Frank Hannig Tel.: +49-9131-85-25153 Fax: +49-9131-85-25149 Das Projekt beschäftigt sich mit der systematischen a) Abbildung, b) Evaluation und c) Exploration von massiv parallelen Prozessorarchitekturen, die für spezielle Anwendungen im Bereich von Eingebetteten Computern entwickelt werden. Die zu untersuchende Klasse von Computerarchitekturen besteht aus massiv parallel vernetzten Prozessorelementen, die durch heutige Hardwaretechnologie in einem einzigen Chip (SoC – System on a Chip) integriert werden können. Weitere Informationen sind im WWW unter folgender URL verfügbar: http://www12.informatik.uni-erlangen.de/research/comap/ 20.3.6 Effiziente Nutzung von Ressourcen in parallelen Systemen Projektleitung: Prof. Dr. rer. nat. Rolf Wanka Beginn: 1.11.2004 Parallele Sortieralgorithmen und zentralisierte und lokale Lastverteilungsverfahren verbessern die Ausnutzung der Möglichkeiten von Parallelrechnern erheblich. 436 Insbesondere können sog. periodische und Diffusionslastbalancierungsmethoden erfolgreich als Hintergrundprozesse eingesetzt werden, um die Ausführung paralleler Algorithmen zu beschleunigen, die irreguläre Kommunikationsmuster oder ein asymmetrisches dynamisches Lastverhalten haben. In diesem Forschungsbereich wollen wir effiziente Lastverteilungsalgorithmen entwerfen, analysieren und implementieren, insbesondere motiviert durch die Anforderungen aus dem Gebiet des Hardware/Software-Morphings und anderer dynamischer Systeme. Am 24. April 2006 hielt Prof. Wanka im Rahmen des Collegium Alexandrinum den Vortrag Von der ” Hollerith-Maschine zum Parallelrechner“. Dieser Vortrag wurde am 7. August 2006 vom TV-Sender br-alpha im Rahmen der seiner Reihe alpha-campus ausgestrahlt. Ein weiterer Schwerpunkt dieses Projekts liegt in der Berechnung sog. Graphspektren. Das Spektrum eines Graphen ist im Wesentlichen die Menge der Eigenwerte der Adjazenzmatrix des Graphen. Interessanterweise kann man wichtige Eigenschaften eines Graphen wie z.B. die Erreichbarkeit, die Expansion und die Lastbalancierungsfähigkeit aus dem Spektrum ableiten. Wir erforschen die Spektren von Graphen, die als Verbindungsnetzwerke im Parallelen Rechnen eingesetzt werden: Butterfly-Netzwerk, CubeConnected Cycles-Netzwerk und das Shuffle-Exchange-Netzwerk. Die erzielten Resultate werden eingesetzt, um die erwähnten graphentheoretischen Eigenschaften dieser Netzwerke zu charakterisieren. 20.3.7 Entwicklung einer FPGA-Erweiterungsplatine für die medizinische Bildverarbeitung Projektleitung: Dipl.-Ing. Frank Hannig Beteiligte: Dipl.-Inf. Holger Ruckdeschel Hritam Dutta, M. Sc. Dipl.-Ing. Frank Hannig Laufzeit: 1.7.2006–30.4.2007 Förderer: Siemens AG Medical Solutions, Forchheim Kontakt: Dipl.-Ing. Frank Hannig Tel.: +49-9131-85-25153 Fax: +49-9131-85-25149 Im Rahmen einer Forschungskooperation zwischen der Siemens Aktiengesellschaft, Bereich Medical Solutions, Geschäftsgebiet AX und dem Lehrstuhl für Informatik 12 437 (Hardware-Software-Co-Design) der Universität Erlangen-Nürnberg werden systematisch neuartige Architekturen und Algorithmen für die medizinische Bildverarbeitung modelliert und exploriert. Hierzu werden berechnungsintensive Anwendungen aus dem Bereich der Angiographie (AX) betrachtet. Diese Verfahren erfordern die Verarbeitung sehr großer Mengen an Rohdaten in einer Kette von Schritten. Einzelne Stufen dieser Verarbeitungskette sind üblicherweise a) die Datenakquisition, b) Vorverarbeitungsalgorithmen, c) die Bildrekonstruktion und abschließend d) die Bildaufbereitung und Visualisierung. Um den Rechenanforderungen, aber auch Geschwindigkeitsanforderungen zur Aufbereitung gerecht zu werden, sind derzeit hochoptimierte Multi-DSP-Lösungen im Einsatz. In der Kooperation wurde erfolgreich eine FPGA-Erweiterungsplatine für die existierende, DSP-basierte Plattform entwickelt. 20.3.8 Entwurf anwendungsspezifischer Prozessoren Projektleitung: Prof. Dr.-Ing. Jürgen Teich Beteiligte: Dipl.-Ing. Frank Hannig Dipl.-Ing. Alexey Kupriyanov Beginn: 1.10.1998 Kontakt: Dipl.-Ing. Frank Hannig Tel.: +49-9131-85-25153 Fax: +49-9131-85-25149 Betrachtet werden die Probleme der Modellierung, Simulation und des systematischen Entwurfs anwendungsspezifischer Instruktionssatzprozessoren (engl. applicationspecific instruction-set processors, ASIPs). Dazu gehören beispielsweise digitale Signalprozessoren (DSPs) und Mikrocontrollerarchitekturen. Untersucht werden neuartige Simulationskonzepte sowie bessere Compilerverfahren zur Unterstützung dieser Klasse von Architekturen. Im Rahmen dieses Projekts ist ein Entwurfssystem zur Computer-Architektur und Compiler Co-Generierung entstanden. Es beinhaltet komfortable Werkzeuge zur halbautomatischen Exploration optimaler Architektur-/Compiler-Entwürfe und zur schnellen, bitgenauen und zyklentreuen Simulation. Ausgangspunkt eines Entwurfs ist das Werkzeug ”ArchitectureComposer”. Der Entwickler wählt aus einer Bibliothek Komponenten aus und komponiert seine Architektur graphisch, indem er instanziierte Komponenten miteinander verbindet. Die Bibliothek enthält viele für den Prozessorentwurf notwendige Basisblöcke, wie arithmetische Einheiten, Speicherbausteine, Registerbänke, Multiplexer u. a., und kann gegebenenfalls 438 um weitere Module, wie Caches, spezielle Verbindungsnetzwerke, etc., erweitert werden. Alle Komponenten sind parametrisiert, so dass beispielsweise die Wortbreite der Einheiten individuell ausgewählt werden kann. Realistische Mikroprozessoren, u. a. ein MIPS-Prozessor und ein Digitaler Signalprozessor der Texas Instruments TMS320C6Serie, konnten erfolgreich innerhalb von Stunden entworfen werden. Um bereits entworfene Teilsysteme mehrfach instanziieren zu können, bietet ”ArchitectureComposer” die Möglichkeit, hierarchischer Komponenten. Ferner existiert ein VHDL-Codegenerator, der die direkte Hardwaresynthese eines Mikroprozessors aus dessen graphischer Beschreibung mittels ”ArchitectureComposer” ermöglicht. Derzeit wird ein entsprechender Generator für die Spezifikationssprache SystemC entwickelt. Aus der graphischen Eingabe wird automatisch ein gemischtes Struktur/Verhaltensmodell der Architektur, basierend auf dem Formalismus sog. ”abstrakter Zustandsmaschinen” (ASM), generiert. Ebenfalls automatisch wird eine architekturspezifische Simulationsumgebung erzeugt, die in der Lage ist, die entworfene Prozessorarchitektur bit- und zyklengetreu zu simulieren. Um die bitgenaue Simulation der Ausführung von Instruktionen zu ermöglichen, wird eine Bibliothek von Operationen auf beliebigen Wortlängen und Zahlendarstellungen verwendet. Die Spezifikation des Anwendungsprogramms erfolgt derzeit in Assemblernotation der entsprechenden Zielarchitektur. Die Generierung eines Parsers für die Simulatoreingabe der Assemblerprogramme wird ebenfalls von der Simulationsumgebung unterstützt. Gegenüber bekannten Simulatoren für Mikroprozessoren wird bei unserem Ansatz ein Simulator speziell für die eingegebene Architektur generiert. Dieser Simulator ermöglicht es, ein vorgegebenes Programm schrittweise abzuarbeiten. So können beliebige interne Signale im Prozessor während des Simulationsablaufs als Testpunkte ausgewählt und Datenwerte an diesen Punkten beobachtet werden. Dieser Ansatz ist flexibler als bei statischen Simulatoren, die meistens nur Speicher- und Registerwerte anzeigen können. Da sich das Verhalten von Prozessoren sehr kompakt mittels ASMs modellieren lässt, kann eine erhebliche Steigerung der Simulatorperformanz erzielt werden im Vergleich zu Modellierungsansätzen gleicher Simulationsgenauigkeit, die auf Hardwarebeschreibungssprachen basieren. Um die Simulatorperformanz nochmals erheblich zu steigern, wird derzeit die Generierung von in C++ compilierten Simulatoren untersucht. Hierbei kommen effiziente Graphpartitionierungs-Strategien zum Einsatz. Bei modernen Mikroprozessoren können oft mehrere Instruktionen gleichzeitig auf mehreren funktionalen Einheiten abgearbeitet werden. Um diese parallele Abarbeitung zu unterstützen, muss ein Compiler in der Lage sein, bei der Übersetzung eines Hochsprachenprogramms in Maschinencode die Abhängigkeiten von Daten zu analysieren und parallelen Code zu generieren. Dazu braucht er Information über Maschineneigenschaften, welche direkt aus der eingegebenen Architektur extrahiert werden können. Wir setzen einen retargierbaren Compiler für ANSI C-Code ein, der zahlreiche Opti439 mierungen auf dem Zwischencode unterstützt, u. a. Elimination von redundantem Code, Propagation von Variablen und Schleifenentfaltung. In der Codegenerierungsphase wird aus der Information über die Anzahl funktionaler Einheiten und der Ressourcenbelegung während der Instruktionsabarbeitung ein Maschinenprogramm generiert, das der Simulator direkt verarbeiten kann. Architekturänderungen mit entsprechenden Compileranpassungen können in einer Schleife zur Exploration von optimalen Architektur-/Compiler-Systemen untersucht werden. Für eine modifizierte Architektur wird der Compiler angepasst und eine Menge von Benchmarkprogrammen übersetzt und auf dem ebenfalls generierten Simulator simuliert. Dies erfolgt völlig automatisch. Als Ergebnis liefert der Simulator Statistiken über Ausführungszeiten, Codegrößen von Modulen und andere Optimierungsgrößen zurück. Interessant sind hier diejenigen Architektur-/Compiler-Systeme, die bezüglich Kosten der Architektur und Effizienz des durch den Compiler generierten Codes optimal sind für eine gegebene Menge von Benchmarkprogrammen. Geeignet zu instrumentieren sind hier die Möglichkeiten der Änderbarkeit der Architektur und die Art der Anwendung von Codeoptimierungsverfahren. Beide zusammen stellen den Suchraum dieses komplexen Optimierungsproblems dar. Unsere zukünftigen Forschungen beschäftigen sich mit Erweiterungen des Projekts zur Modellierung, Simulation und des systematischen Entwurfs von so genannten rekonfigurierbaren Instruktionssatzprozessoren (engl. reconfigurable instruction-set processors, RISPs). Weitere Informationen sind im WWW unter folgender URL verfügbar: http://www12.informatik.uni-erlangen.de/research/buildabong 20.3.9 Entwurf dedizierter massiv paralleler Systeme Projektleitung: Prof. Dr.-Ing. Jürgen Teich Beteiligte: Dipl.-Ing. Frank Hannig Hritam Dutta, M. Sc. Dipl.-Inf. Matthias Hartl Beginn: 1.10.1998 Kontakt: Dipl.-Ing. Frank Hannig Tel.: +49-9131-85-25153 Fax: +49-9131-85-25149 In diesem Projekt werden Verfahren zum Entwurf von feinkörnigen massiv parallelen 440 VLSI Schaltungen untersucht. Das Projekt liegt im Bereich Abbildungsmethodik und hat zum Ziel, Entwurfsverfahren für algorithmisch spezialisierte, massiv parallele Systeme zu erforschen und diese in einem Entwurfssystem bereitzustellen. Obwohl die hier betrachteten Architekturen keine eigenständigen Rechner darstellen, spielen sie – eingesetzt als Coprozessoren – eine wichtige Rolle in Systemen, die ein hohes Maß an Dediziertheit und Rechenleistung erfordern. Der Entwurf und die Integration dieser Komponenten in größere heterogene Hardware-/Software-Systeme oder in so genannte System-on-a-Chip (SoC) macht die Implementierung und Anwendung spezieller Entwurfsverfahren notwendig, die den Entwurf vom Algorithmus bis zur Schaltung automatisiert. Die Anwendungsgebiete sind dabei charakterisiert durch die Notwendigkeit für höchste Rechenleistung bei gleichzeitigen Kosten-, Größen- und anderen physikalischen Beschränkungen. Dazu gehören insbesondere die Bereiche der digitalen Signalverarbeitung, der drahtlosen Kommunikation, der Kryptographie und Algorithmen der Systemtheorie. Das Projekt wurde im Rahmen des Sonderforschungsbereichs 376 ”Massive Parallelität” an der Universität Paderborn gefördert. Hier konnte erstmals eine vollständig durchgängige Entwurfmethodik für die Abbildung von regelmäßigen Schleifenprogrammen bis hinunter zur lauffähigen Hardwareimplementierung entwickelt werden und in Form eines Entwurfssystems PARO (Piecewise Linear Algorithm and Architecture Research and Optimization) zu implementieren. In der ersten Phase, dem Frontend, extrahiert PARO die inhärente Parallelität der zu implementierenden Algorithmen (gegeben in Form eines C-Programms) und überführt diese in einen parallelen Algorithmus. In den nächsten Verfeinerungsstufen wird der Algorithmus lokalisiert und homogenisiert. Diese Transformationen dienen dazu, das spätere Prozessorfeld, erstens möglichst homogen und somit skalierbar zu machen. Zweitens erreicht man dadurch, dass nur Kommunikation zwischen benachbarten Prozessoren stattfindet (Lokalität). Durch diese kurzen Kommunikationswege kann der resultierende Chip schneller arbeiten, gleichzeitig werden Kosten und Energieverbrauch reduziert. In zahlreichen Anwendungen liegen die betrachteten Algorithmen als n-dimensionale Schleifenprogramme vor. In der Praxis können allerdings nur ein- bzw. zweidimensionale Prozessorfelder hergestellt werden. Hier werden Abbildungen benötigt, die festlegen, welche Berechnung zu welchem Zeitpunkt auf welchem Prozessor stattfindet. Bei der immensen Anzahl von Abbildungsmöglichkeiten ist die Herausforderung, effiziente Explorations-Algorithmen zu entwickeln, die wiederum optimale Abbildungen finden. Im Gegensatz zu bisherigen Arbeiten werden erstmals Fronten optimaler Raum-ZeitAbbildungen gefunden. Als Optimierungsziele werden der Flächenaufwand als Maß für die Kosten, Latenz und Fließbandrate als Maß für die Performanz betrachtet. Darüber hinaus ist es uns gelungen, substantielle Ergebnisse hinsichtlich der Schätzung des Ener441 gieverbrauchs von regelmäßigen Schaltungen zu erzielen. Ebenfalls kann es aus Kosten oder technologischen Gründen sein, dass die verfügbaren Hardware-Ressourcen beschränkt sind. Hier kommen effiziente Partitionierungsverfahren zum Einsatz. Durch substantielle Erweiterungen im Bereich der Abbildungsmethodik und durch Betrachtung von Partitionierungsverfahren für Algorithmen mit affinen Datenabhängigkeiten (gegenüber bisherigen Ansätzen mit stückweise konstanten Abhängigkeiten) konnten wesentlich effizientere Abbildungen erzielt werden. Im Bereich der Hardwaresynthese haben wir die fundamentalen Probleme ’regelmäßige Platzierung’ und die ’Randsteuerung’ von Rechenfeldern untersucht. Ferner wurden im Bereich ’Interfaces’ zur Peripherie Arbeiten durchgeführt. Diese Ergebnisse erlauben erstmals einen vollständig automatisierten Entwurf vom Algorithmus in C zur synthetisierbaren Schaltung in VHDL. Auf FPGAs kann die Schaltung sofort umgesetzt werden. Das entstandene Entwurfssystem PARO integriert die entstandenen Arbeiten vollständig. Die laufenden Untersuchungen in diesem Projekt befassen sich u. a. mit neuen Zielarchitekturen. Es wird untersucht, inwieweit sich die Entwurfmethodik auch für die Abbildung regelmäßiger Algorithmen auf grobgranulare rekonfigurierbare Prozessorfelder eignet. Hierbei sind die Architekturparameter (Anzahl der Prozessorelemente, Speichergröße, E/A-Schnittstellen, etc.) in der Abbildungsmethodik zu berücksichtigen. Des Weiteren wurde kürzlich die zugrunde liegende Algorithmenklasse essentiell erweitert, so dass auch Algorithmen mit dynamischen Datenabhängigkeiten behandelt werden können. Bei den Partitionierungsverfahren werden Methoden zur automatischen Generierung der Ansteuerung von Datenquellen und Speicher erforscht. Weitere Informationen sind im WWW unter folgender URL verfügbar: http://www12.informatik.uni-erlangen.de/research/paro 20.3.10 Entwurfsmethodik für gemischt zeitgesteuerte und ereignisgetriebene Steuergerätearchitekturen – Modellierung, Optimierung und Implementierung Projektleitung: Prof. Dr.-Ing. Jürgen Teich Beteiligte: Dipl.-Inf. Martin Lukasiewycz Stichwörter: Entwurfsmethodik Steuergerätearchitektur Laufzeit: 1.10.2006–30.9.2009 Förderer: 442 Audi AG, Ingolstadt Kontakt: Dipl.-Inf. Martin Lukasiewycz Tel.: +49 9131 85-25161 Fax: +49 9131 85-25149 E-Mail: [email protected] Der zunehmende Bedarf an Funktionalität in Kombination mit den stetig steigenden Anforderungen an die Leistungsfähigkeit der Automobilelektronik erfordert neue Konzepte in der Dimensionierung und somit in der Entwurfsmethodik für zukünftige Steuergerätearchitekturen. Ein Schritt in diese Richtung ist der Einsatz von FlexRay als zukünftiges Kommunikationsmedium. Mit Hilfe von FlexRay wird es möglich sein, sowohl zeitgesteuert als auch ereignisgetrieben Daten zwischen den Steuergeräten zu übertragen. Grundlegende Fragestellungen, welche bei dem Einsatz von FlexRay aufkommen, beschäftigen sich mit der Topologieauslegung der Steuergerätearchitektur bei gleichzeitiger Betrachtung der Zuverlässigkeit, der Leistungsaufnahme, der Kosteneffizienz, um nur einige Kriterien zu nennen. Zur Lösung dieser herausfordernden Probleme gibt es heutzutage weder kommerziellen Werkzeuge noch in sich geschlossene, OEM-spezifische Ansätze. Im Rahmen des angebotenen Promotionsprojektes sollen Optimierungsverfahren, welche am Lehrstuhl Informatik 12 entwickelt wurden erweitert und deren Eignung zur Lösung oben genannter Probleme untersucht werden. Es besteht eine Notwendigkeit für eine Entwurfsmethodik für gemischt zeitgesteuerte und ereignisgetriebene Steuergerätearchitekturen. Eine solche Entwurfsmethodik ist das Ziel des hier angebotenen Promotionsprojektes. Die grundlegenden Fragestellungen, welche zu erforschen sind, sind hierbei die Folgenden: • Modellierung: Hier stellt sich die Frage nach einer geeigneten Modellierung der Steuergerätearchitektur sowie die notwendige Modellierung der Anwendungen, die auf diese Architekturen abgebildet werden sollen. Eine besondere Herausforderung stellt hierbei die Modellierung des Einflusses der Betriebssysteme auf den Steuergeräten dar. Hier sind Effekte wie zusätzliche Latenzen und Jitter zu erwarten. Hier könnte eine Modellierung auf der Synchronitätshypothese einen möglichen Ansatz darstellen. • Optimierung: Die Optimierung stellt den Kern des hier angebotenen Promotionsprojektes dar. Eine zentrale Aufgabe in der Optimierung ist neben der Topologieauswahl die Funktionsabbildung auf die Steuergeräte. Die so genannte Funktionspartitionierung hat einen entscheidenden Einfluss auf die oben genannten Größen wie Zuverlässigkeit, Leistungsaufnahme und Kosten. Hier könnten Verfahren basierend auf Evolutionären Algorithmen, die mehrere Zielgrößen gleichzeitig beachten und die am Lehrstuhl für Hardware-Software-Co-Design entwi443 ckelt werden, Anwendung finden. Neben diesen Aspekten wird es aber ebenso notwendig werden, die Leistungsfähigkeit im Sinne der Echtzeiteigenschaften der Funktionspartitionierung bei gegebener Steuergerätearchitektur zu bewerten. Besonders interessant ist hierbei der Effekt durch sog. Gateways, also der Übergang zwischen FlexRay-gekoppelten Steuergeräten zu z.B. CAN-gekoppelten Steuergeräten. Zur Lösung des hier dargestellten Problems könnten Modelle basierend auf so genannten Ereignisströmen zum Einsatz kommen. Alternativ sollen simulative Bewertungsmethoden evaluiert werden. Hier stellt sich insbesondere die Frage, wie sich die hierfür notwendige Bussimulation in die Optimierungsmethodik integrieren lässt. Ziel der hier vorgestellten Optimierung ist das Finden von optimalen Steuergerätearchitekturen sowie die Ableitung der für die Kommunikation notwendigen Parameter (z.B. FlexRay). • Implementierung: Die hier vorgestellte Methodik soll prototypisch umgesetzt und anhand eines kleinen Beispielsystems sollen erste Aussagen über die Güte des Modells und der Optimierung getroffen werden. 20.3.11 Fertigungsorientierte Entwurfsmethodik für Software eingebettet in Komponenten mobiler Systeme Projektleitung: Prof. Dr.-Ing. Jürgen Teich Beteiligte: Dipl.-Inf. Michael Glaß Dipl.-Inf. Thomas Schlichter Dr.-Ing. Christian Haubelt Laufzeit: 1.1.2006–31.12.2009 Förderer: Deutsche Forschungsgemeinschaft Kontakt: Dipl.-Inf. Michael Glaß Tel.: +49 9131 85 – 25156 Fax: +49 9131 85 – 25149 E-Mail: [email protected] Elektronik und Software stellen heutzutage das größte Innovations- allerdings auch das höchste Pannenpotential im Automobilbau dar. Deshalb werden in diesem Teilprojekt fertigungsorientierte und modellbasierte Softwareentwicklungsmethoden zur Kompensation von Fertigungstoleranzen, Alterungsprozessen und Fehlern von eingebetteten Systemen untersucht. Mit dem Ziel Qualität und Zuverlässigkeit eines Systems zu 444 analysieren, nachhaltig zu verbessern und das Problem des Variantenreichtums zu behandeln, sollen neue Entwurfsmethodiken erforscht werden. Weitere Informationen sind unter http://www.sfb694.de verfügbar. 20.3.12 Hardware/Software-Implementierungen des Motion JPEG2000 Standards Projektleitung: Dr.-Ing. Siegfried Fößel Beteiligte: Dipl.-Ing. Joachim Keinert Beginn: 6.12.2004 Förderer: Fraunhofer Institut für Integrierte Schaltungen, Erlangen Mit fortschreitender Rechenleistung und Speicherkapazität moderner Chips können immer komplexere Aufgaben durch eingebettete Systeme realisiert werden. Dadurch eröffnen sich zahlreiche neue Anwendungsfelder, da vormals utopische Anforderungen an Rechenleistung und Speicherbedarf nur durch extrem leistungsfähige Hardware/Software-Systeme realisierbar werden. Dies trifft insbesondere bei der Verarbeitung großformatiger Bilder zu wie sie z.B. bei digitalen Kinoproduktionen anzutreffen ist. Dadurch vereinfacht sich nicht nur die Bearbeitung des aufgenommenen Materials, sondern auch Aufnahme, Verteilung und Wiedergabe können von neuen Methoden profitieren und kostengünstiger realisiert werden. Allerdings bedingen die wachsenden Anwendungsmöglichkeiten und die steigende Leistungsfähigkeit moderner Prozessoren auch eine zunehmende Komplexität der zu realisierenden Systeme. So erfordern beispielsweise die enormen Datenmengen, welche in der digitalen Kinoproduktion auftreten, eine echtzeitfähige Kompression des Bildmaterials, z.B. mittels JPEG2000. Dieser Standard bietet im Vergleich zum herkömmlichen JPEG-Verfahren zahlreiche Vorteile wie einfache Extraktion unterschiedlicher Qualitäts- und Auflösungsstufen, verlustlose und verlustbehaftete Kompression sowie hohe Kompressionsraten. Dies geht allerdings einher mit einer signifikant höheren Systemkomplexität, welche zusammen mit den zu beherrschenden Datenraten die Entwicklungskosten beträchtlich steigen lassen. Um zukünftige Entwicklungen zu vereinfachen, wird dabei am Lehrstuhl für Informatik12 (Prof. Dr.-Ing. Jürgen Teich) in Kooperation mit dem Fraunhofer Institut für Integrierte Schaltungen untersucht, wie Methoden zur automatischen Synthese von Hardware/Software-Systemen eingesetzt werden können, um die Beherrschung der Systemkomplexität zu vereinfachen und gleichzeitig die hohen Anforderungen an Datenrate 445 und erreichbare Qualität zu erfüllen. Die echtzeitfähige Kompression und Dekompression mittels des JPEG2000-Standards dient dabei als beispielhaftes Anwendungsszenario, so dass nicht nur auf die am Lehrstuhl 12 entwickelten Verfahren zur automatischen Generierung von Hardware/Software-Systemen zurückgegriffen werden kann, sondern auch die Erfahrungen aus der manuellen Implementierung eines JPEG2000Enkoders einfließen können, welche am Fraunhofer Institut für Integrierte Schaltungen im Rahmen des EU-Projektes Worldscreen gesammelt wurden. Dadurch können zielgerichtet entsprechende Methoden erforscht werden, welche die Modellierung mit neuen Datenfluss-Modellen, deren Analyse und die effiziente Synthese von Kommunikationsstrukturen für hohe Datenraten umfassen. 20.3.13 Partikelschwarm-Optimierung Projektleitung: Prof. Dr. rer. nat. Rolf Wanka Beteiligte: Dipl.-Inf. Sabine Helwig Beginn: 1.8.2005 Das Projekt beschäftigt sich mit der Untersuchung der Metaheuristik der sog. Partikelschwärme. Dabei wird bei einem Optimierungsproblem der Raum der zulässigen Lösungen von einem sog. Schwarm von Individuen, die Einzellösungen darstellen, erkundet. Ein einzelnes Individuum bewegt sich dabei durch den Lösungsraum, indem es seine eigene bislang beste Lösung und die Lösungen anderer Individuen auswertet und kombiniert. Das Verfahren ist inspiriert vom Verhalten von Vögel- und Fischschwärmen. Der allgemeine Partikelschwarm erkundet in der Regel einen in alle Richtungen unbeschränkten Lösungsraum. Jedoch ergibt sich regelmäßig aus den Anwendungen, dass die Lösungen nur aus einem eingeschränkten Bereich gewählt werden dürfen. D.h. wenn ein Individuum den Lösungsraum verlassen will, muss das Verfahren so angepasst werden, dass letztlich keine unzulässigen Lösungen ausgegeben werden dürfen. Wir haben eine Reihe von solchen Bound-Handling-Methoden analytisch und experimentell untersucht und konnten einige ”Daumenregeln” aufstellen, wie solche Methoden aussehen sollten. Insbesondere konnten wir zeigen, dass sich Partikel gerade am Anfang der Berechnung mit sehr hoher Wahrscheinlichkeit sehr nah an den Lösungsraumgrenzen befinden, was häufig dazu führt, dass sie sich gerade dort, weit weg von der optimalen Lösung, festsetzen. Wir untersuchen auch, welche anderen Individuen ein Individuum konsultieren sollte, um seine neue Position zu bestimmen. Neben der Anfrage nach der bislang bes446 ten eigenen und der bislang besten globalen sind Netzwerkstrukturen zwischen den Individuen vorstellbar. Wir erforschen den Einfluss solcher Netzwerkstrukturen auf die Geschwindigkeit, mit der sich der Schwarm auf eine Lösung festlegt, die Qualität von Lösungen, den Zusammenhalt des Schwarms, und wir untersuchen, wie man diese Netzwerkstruktur ggf. während der Ausführung dynamisch ändern kann, um Verbesserungen im Schwarmverhalten hervorzurufen. 20.3.14 ReCoNets – Entwurfsmethodik für eingebettete Systeme bestehend aus kleinen Netzwerken hardwarerekonfigurierbarer Knoten und verbindungen Projektleitung: Prof. Dr.-Ing. Jürgen Teich Beteiligte: Dr.-Ing. Christian Haubelt Dipl.-Ing. Dirk Koch Dipl.-Ing. Thilo Streichert Laufzeit: 1.6.2003–31.5.2009 Förderer: Deutsche Forschungsgemeinschaft Das Ziel des Projekts ist die Erforschung einer Entwurfsmethodik für eine Klasse neuartiger Rechnerarchitekturen, die sich durch die besonderen Eigenschaften der Vernetztheit und der Rekonfigurierbarkeit auf Hardwareebene auszeichnen und die für einen speziellen technischen Kontext entwickelt werden (eingebettetes System). Die Rekonfigurierbarkeit ist hierbei nicht auf die einzelnen Hardwaremodule (Knoten des Netzwerks) beschränkt, sondern muss auch für die Knotenverbindungen gelten. Typische Anwendungsfelder für rekonfigurierbare Netzwerke sind die Automobilelektronik oder Body-Area-Netzwerke. Gerade im Bereich der Automobiltechnik ist zu erkennen, dass sich bis zu 100 Prozessoren die unterschiedlichsten Spezialaufgaben im Fahrzeug teilen. Die Systeme sind verteilt, da es günstiger ist, bestimmte Funktionen und Vorverarbeitungen vor Ort durchzuführen, also dezentral. In diesem Bereich hat man jedoch mittlerweile erkannt, dass die Systeme sehr teuer werden und die statische Auslegung der Einzelkomponenten und deren Verbindung über ein genormtes Busmedium (z.B. CAN-Bus in der Automobiltechnik) dazu führt, dass bestimmte Funktionalitäten nur so lange aufrecht erhalten werden können, wie der am Sensor oder Aktuator angeschlossene Knoten ordnungsgemäß funktioniert. Die Knoten sind ferner oft schlecht ausgelastet, da sie nicht in der Lage sind, Funktionen anderer Module – insbesondere wäre dies bei Ausfall eines Moduls wünschenswert – zu übernehmen. 447 Das Gleiche gilt für den aktuellen Forschungsbereich von Body-Area-Netzwerken. Hier soll es möglich sein, neue Sensoren und Aktuatoren sowie neue Funktionalitäten in ein funktionierendes System zu integrieren, ohne die Hardware komplett austauschen zu müssen. In beiden Bereichen bietet es sich an, Konzepte zu überlegen, wie man solche komplexen eingebetteten Systeme hardwaremäßig auslegen sollte, damit die Eigenschaften Flexibilität, Erweiterbarkeit, Spezialisiertheit, Ausfallsicherheit und Effizienz gleichsam erfüllt sind. Software liefert zweifelsohne die beste Flexibilität, ist hingegen in vielen Anwendungsbereichen eingebetteter Systeme aufgrund von Geschwindigkeits- oder Energieverbrauchsanforderungen nicht einsetzbar. Die widersprüchlichen Eigenschaften von Flexibilität und Spezialisiertheit sowie Ausfallsicherheit sind hingegen durch den Einsatz von Rekonfigurierbarkeit in den Hardwareelementen möglich. Die von uns auf der Netzwerkebene (Makroebene) durchgeführten Untersuchungen betreffen folgende Problemstellungen: Modellierung: Als Grundlage zur Analyse von Ausfallsicherheit und Fehlertoleranz sowie zum Verständnis der Optimierungs- und Syntheseschritte für ReCoNets setzen wir auf einem graphenbasierten Ansatz zur Modellierung von statischen Anwendungen und statischen Architekturen auf. Dieses Modell wird durch Einführung einer Graphenhierarchie so erweitert, dass auf der Anwendungsseite die zeitvariante Last eines Systems als Auswahlproblem von einem oder einer Teilmenge aller denkbar möglichen aktiven Prozesse modelliert wird. Aufgrund der Rekonfigurierbarkeit auf mehreren Ebenen (hier: Netzwerk (Makro) und Knoten (Mikroebene)) bietet es sich an, ebenfalls die Möglichkeit der Hierarchie zu untersuchen. Die Rekonfiguration eines Knotens werden beispielsweise so dargestellt werden, dass zeitlich ein alternativer, hierarchischer Knoten (Cluster) ausgewählt (aktiviert) wird. Analyse: Zeitvariante Allokationen und Bindungen: Für statische Architekturen bestimmt man die Allokation (welche Knoten sollte die beste Architektur für die gegebene Anwendung beinhalten?), die Bindung (welcher Prozess läuft auf welchem Knoten?) und die Ablaufplanung (wann bzw. in welcher Reihenfolge oder mit welcher Priorität läuft ein Prozess auf dem ihm zugewiesenen Knoten?) nur einmal zur Entwurfszeit. Da wir hier davon ausgehen, dass sowohl Leitungen (Kanten) als auch Knoten der Architektur im Betrieb des Systems ausfallen bzw. Leitungen und Knoten in das System zur Laufzeit hinzugefügt werden können, werden Allokation, Bindung und Ablaufplanung abhängig von der Laufzeit t definiert, so dass wir über die Zeit parametrisierte Allokationen, Bindungen und Ablaufplanungen erhalten. Fällt beispielsweise zum Zeitpunkt t ein allozierter Knoten aus, so wird zu diesem Zeitpunkt die Allokation geändert. Analyse von Fehlertoleranz und Ausfallsicherheit eines ReCoNets: Darauf basierend beschäftigen wir uns mit Fragen der Ausfallsicherheit eines ReCoNets. Dazu betrach448 ten wir die zwei Problemfälle einer Leitungsstörung bzw. eines Leitungsausfalls sowie eines Knotenausfalls. Falls eine Leitung ausfällt, sollen die Daten, die über diesen Knoten geroutet werden, einen anderen Weg nehmen, falls dies möglich ist. Statt einen wahrscheinlichkeitstheoretischen Ansatz der sog. Zuverlässigkeit bzw. der sog. Fehlerwahrscheinlichkeit zu verwenden, zielen wir hier bei rekonfigurierbaren und repartitionierbaren Systemen beispielsweise auf die Frage, wie viele Knoten im System gleichzeitig ausgefallen sein dürfen, damit man die Funktionalität noch komplett durch Rerouting und Rekonfiguration der Knoten aufrecht erhalten kann. Wir erwarten, dieses Problem allein aus der Topologie des Spezifikationsgraphen analysieren und lösen zu können. Die Ausfallsicherheit eines Systems hängt daher von der Topologie des Spezifikationsgraphen ab und insbesondere den Möglichkeiten der Bindbarkeit von Prozessen auf Ressourcen. Dies wird formal analysiert, um erste Definitionen und Aussagen zur Ausfallsicherheit von rekonfigurierbaren Netzwerken zu machen. Synthese und Optimierung: Aus Gründen der Ausfallsicherheit und Fehlertoleranz gibt es in ReCoNets keine zentralen Einheiten, die im Falle von Änderungen der Last oder der Architektur durch Ausfall oder Hinzufügen von Leitungen oder Knoten eine Rekonfiguration der Leitungen und Knoten einleiten. Wir sind daher mit dem Problem konfrontiert, bezüglich Erkennung und Einleitung von Reaktionen (Rerouting und Repartitionierung) einen dezentralen Ansatz zu verfolgen. Implementierung: Die Verfahren der Erkennung von Leitungs- und Knotenausfällen sowie erste Ergebnisse zu Rerouting und Online-Repartitionierung sollen gegen Ende 2004 auf einem zu entwerfenden Prototyp implementiert werden und die Machbarkeit und Vorteile von ReCoNets verdeutlichen. Dazu soll ein ReCoNet mit 4 Knoten, bestehend jeweils aus einem Altera-Excalibur-Board, auf dem sich ein FPGA (APEX) befindet, aufgebaut werden. Auf diesem FPGA lässt sich ein verfügbarer Mikroprozessorcore mit Namen NIOS inklusive peripherer Einheiten, wie Timer, UARTs und andere I/O-Schnittstellen, konfigurieren und benutzerspezifische Hardware als Co-Design hinzuzufügen und alsdann synthetisieren. Weitere Informationen sind im WWW unter folgender URL verfügbar: http://www.reconets.de 20.3.15 ReCoNodes – Optimierungsmethodik zur Steuerung hardwarekonfigurierbarer Knoten Projektleitung: Prof. Dr.-Ing. Jürgen Teich Beteiligte: Dipl.-Ing. Mateusz Majer Dipl.-Ing. Diana Göhringer 449 Dipl.-Inf. Josef Angermeier Laufzeit: 1.6.2003–31.5.2009 Förderer: Deutsche Forschungsgemeinschaft Kontakt: Prof. Dr.-Ing. Jürgen Teich Tel.: +49-9131-85-25150 Fax: +49-9131-85-25149 E-Mail: [email protected] In diesem Projekt wird der bislang nur unzulänglich automatisierte Zugang zu rekonfigurierbaren Schaltungen, insbesondere FPGA-basierten Architekturen, erschlossen durch Bereitstellung von Modellen und Optimierungsmethoden im Zusammenhang mit der dynamischen Hardwarerekonfiguration. Diese Modelle und Methoden sollen schließlich in einer Art Betriebssystem für Hardwarefunktionen resultieren, das die Verwaltung der Ressourcen zur Laufzeit übernimmt. Konkreter Gegenstand unserer Untersuchungen sind Strategien und Methoden der mathematischen Optimierung für die optimale Steuerung und Nutzung neuester und künftiger Generationen von rekonfigurierbarer Hardware. Solche rekonfigurierbaren Chips werden bereits in verschiedensten technischen Zusammenhängen genutzt. Aufgrund praktischer Hindernisse (vor allem durch den hohen Rekonfigurationsaufwand) und theoretisch noch nicht voll entwickelter Methoden konnte das Potential rekonfigurierbarer Hardware bislang nur zu einem kleinen Teil verwirklicht werden. Wir haben mittlerweile gezeigt, dass die meisten dieser Schwierigkeiten bereits mit bestehender Technologie zu einem guten Teil überwunden werden können. Davon erwarten wir auch neue Impulse für Entwicklung und Einsatz neuer Chipgenerationen. Modellierung: Die Anforderung von Ressourcen sowie die rekonfigurierbaren Ressourcen und Chips selbst müssen geeignet modelliert werden. Während bei Betriebssystemen für Mikroprozessoren die wichtigsten Einflussgrößen weitgehend bekannt sind, sind viele Eigenschaften im Bereich der Hardwareanforderungen alles andere als klar, etwa die Anzahl und Form angeforderter Ressourcen, die Ausführungszeit oder der erforderliche Rekonfigurationsaufwand. Dennoch reden wir hier in Analogie zum TaskBegriff in der Softwarewelt konsequent von Hardwaretasks bzw. Hardwareprozessen, um Anforderungen zu bezeichnen. Allerdings erweist es sich als zweckmäßig, zwischen Tasks und Modulen zu unterscheiden. Dabei stellt ein Modul eine Hardwarekonfiguration dar, auf der gewisse Tasks ausgeführt werden können; wie wir noch näher erläutern werden, machen es relativ hohe Rekonfigurationszeiten, aber u. U. relativ kurze Taskzeiten möglich und wünschenswert, bestehende Module auch nach Ende einer Task für mögliche weitere Tasks ohne zusätzlichen Rekonfigurationsaufwand bereit zu halten. Dies illustriert bereits, dass die vorhandenen Ressourcen der Hardware geeignet mo450 delliert werden müssen. Eigenschaften, wie die Unterbrechbarkeit von Hardwaretasks, Rekonfigurationsaufwand, Kommunikationsmodelle etc., werden geeignet formalisiert. Optimierung: Basierend auf den obigen mathematischen Modellen geht es bei der Optimierung darum, die vorhandenen Ressourcen effizient zu verwalten. In der Welt von Softwarebetriebssystemen sind hier die zentralen Probleme der Allokation von Ressourcen sowie der zeitlichen Zuteilung von Ressourcen unter dem Begriff der Ablaufplanung, engl. Scheduling, bekannt. Prinzipiell gilt dies auch für die Ressourcen auf einem rekonfigurierbaren Chip. Die Frage stellt sich nur, welche Optimierungsalgorithmen und welche Optimierungsziele im Rahmen der dynamischen Hardwarerekonfiguration zu verfolgen sind. Hier sollen drei unterschiedliche Szenarien untersucht werden: Das erste Szenario betrifft die optimale Allokation und Ablaufplanung einer statisch gegebenen Menge von Hardwaretasks zur Entwurfszeit. Die beiden anderen Szenarien gehen von unbekannten zeitlichen Anforderungen aus, wobei das erste von sich schnell ändernden Anfragen ausgeht, während das zweite eher den Fall betrachten soll, bei konstanter Last die Auslastung der Ressourcen zu optimieren. Implementierung: Die obigen Verfahren werden im Kontext realer Hardware untersucht. Dazu wurde eine FPGA-Plattform, genannt Erlangen Slot Machine (ESM), entwickelt und gefertigt, auf der die verschiedenen Online-, Offline- und Caching- Algorithmen zur Allokation und Ablaufplanung auf einer speziellen CPU laufen, der ein kommerzielles FPGA ansteuert. Die ESM kann als einer der ersten voll partiell und dynamisch rekonfigurierbaren Computer auf FPGA-Basis weltweit aufgefasst werden. Bezüglich der partiellen dynamischen Rekonfiguration bietet die ESM eine bisher unerreichte Flexibilität. Diese Plattform und die Implementierung der Algorithmen werden als Beweis und Verifikation der Modellannahmen und des Rekonfigurationsoverheads dienen. ESM-Architektur: ”Herz” der ESM-Architektur ist ein großer relativ homogener FPGA. Um die I/O-Pin-Problematik zu lösen, müssen I/O-Pins flexibel zu den entsprechenden Peripherieeinheiten verdrahtet werden. Unsere Lösung ist eine CrossbarArchitektur außerhalb des FPGAs, mit der die I/O-Pins in Abhängigkeit von der Modulplatzierung korrekt mit Signalen der Peripherie verschaltet werden. Zahlreiche Applikationen, insbesondere im Bereich der Bildverarbeitung, benötigen mehr Speicher als auf heutigen FPGAs zur Verfügung steht. Deshalb wird dem FPGA auf der Plattform ausreichend viel Speicher zur Seite gestellt. Um Algorithmen zur Modulplatzierung erproben zu können, wurde für die Plattform ein Betriebssystem entworfen. Dies läuft auf einem externen Prozessor. Dieser Prozessor (PowerPC) dient als ”Gehirn” der ESM-Architektur. Über ihn laufen Anwendungen sowie die Optimierungsalgorithmen zum Scheduling und zur Platzierung der Module. Weitere Aufgabe des Prozessors ist die Steuerung des Crossbars. Nach erfolgter Platzierung eines neuen Moduls wird bei Bedarf eine Verbindung zu den Peripheriebausteinen geschaffen bzw. umgeroutet. Zwischen dem Prozessor und dem Haupt-FPGA befindet sich der sog. Rekonfigurations451 manager, ebenfalls realisiert durch einen FPGA. Seine Funktionen beinhalten das Speichern, Laden und Relokieren von Modul-Konfigurationen auf dem Haupt-FPGA. Sobald der Rekonfigurationsmanager vom Prozessor aufgefordert wird, die Konfiguration eines bestimmten Moduls zu laden, wird diese ”on the fly” für den gewünschten Bereich angepasst bzw. relokiert. Anwendung: Schließlich werden die implementierten Algorithmen auf der eben beschriebenen Plattform getestet. Als Anwendungen betrachten wir erstens Anforderungen, die im Zusammenhang mit der Einbettung rekonfigurierbarer Knoten in verteilten Steuerungssystemen entstehen, sog. ReCoNets. Als Anwendungsszenario untersuchen wir die Anforderungen an ReCoNodes, für die in einem Netzwerk neue Hardwaretasks generiert werden. Dies ist realistisch beispielsweise im Bereich der Automobilinnenraumelektronik, für den am Lehrstuhl bereits Vorarbeiten geleistet wurden. In dem zweiten Anwendungsbereich untersuchen wir die adaptive Videoverarbeitung, die in der Lage ist, während der Verarbeitung von Videobildern die Filter durch Rekonfiguration auszutauschen. Hierbei liegt der Vorteil in dem unterbrechungsfreien Wechsel auf den optimalen Filter, wobei der Zeitpunkt der Anpassung adaptiv von der Anwendung selbst entschieden wird. Weitere Informationen sind im WWW unter folgenden URLs verfügbar: http://www.reconodes.de, http://www.r-space.de 20.3.16 ReKoSys: Kognitive eingebettete Systeme auf Basis dynamisch rekonfigurierbarer Hardware Projektleitung: Prof. Dr.-Ing. Jürgen Teich Beteiligte: Dipl.-Ing. Ferdinand Großmann Dipl.-Inf. Stefan Wildermann Laufzeit: 1.9.2007–28.2.2010 Förderer: Bayerisches Staatsministerium für Wirtschaft, Verkehr und Technologie Mitwirkende Institutionen: Dallmeier electronics softgate GmbH Fraunhofer IIS Die Leistungsfähigkeit von Hardwarekomponenten wächst ständig. Es ist damit zu rechnen, dass eingebettete Systeme in Zukunft auch kognitive Aufgaben übernehmen, die bisher nur vom Menschen selbst durchgeführt werden konnten. Dazu gehören die 452 Fähigkeiten der Wahrnehmung sowie der Muster- und Objekterkennung bis hin zu Fähigkeiten des Lernens und der Selbstorganisation. Die Realisierung solcher rechenintensiven kognitive Ansätze stellt im Allgemeinen sehr hohe Anforderungen an die Leistungsfähigkeit des Rechnersystems (bzgl. Geschwindigkeit, Speicherressourcen etc.) und ist bisher im Bereich eingebetteter Systeme kaum zu finden, obwohl genügend Anwendungsfelder für solche Systeme vorhanden sind. Die übliche Realisierung kognitiver Funktionalität in Software auf Vielzweckrechnern kommt für eingebettete Systeme nicht in Frage, da hier harte Vorgaben hinsichtlich Platzverbrauch, Gewicht und Energieaufwand gegeben sind. Durch die Verwendung rekonfigurierbarer Logik und leistungsfähiger EmbeddedProzessoren sollen erstmals auch kognitive Funktionen in eingebetteten Systemen realisiert werden, was bisher aufgrund der benötigten hohen Rechenleistung nicht möglich war. Zum Einsatz soll ein solches kognitives System bei zwei Anwendungen kommen: • Als Netzwerktechnologie im Automobilbereich, wobei eine einzelne leistungsfähige Netzwerkstruktur verwendet wird, um eine Vielzahl von Netzwerkprotokollen bereitzustellen, zwischen denen mittels einer kognitiven intelligenten Funktion umgeschaltet wird. Bisher war dazu jeweils eine Netzwerk-Infrastruktur pro verwendetem Protokoll erforderlich, was Gewicht und Kosten deutlich erhöht. • Die zweite Anwendung besteht in der Echtzeit-Voranalyse von Videodaten aus Überwachungskameras mit dem Zweck einer Identifikation typischer geometrischer Formen oder einfacher Objekte. Dies ermöglicht später das gezielte und schnelle Auffinden bestimmter Situationen in den Aufzeichnungen. Bisher müssen dazu die gesamten aufgezeichneten Videodaten eines Zeitraumes visuell (d.h. von Personen) analysiert werden, was sehr zeitaufwendig ist. Das Ziel dieses Vorhabens ist es, Grundlagen und Techniken für die Umsetzung kognitiver Funktionen auf eingebetteten Systemen zu erforschen, entsprechende Entwurfsabläufe zu automatisieren und diese Methodiken auf Plattformen anhand zweier konkreter Anwendungen zu testen. Besonderes Augenmerk soll dabei auf den Einsatz dynamisch rekonfigurierbarer Hardware gelegt werden: Da rechenintensive und zeitkritische Algorithmen bei begrenzten Systemressourcen nicht allein in Software berechnet werden können, ist die Unterstützung durch dedizierte Hardware unerlässlich. Um gleichzeitig ein hohes Maß an Flexibilität zu erreichen, sollen programmierbare Hardwarebausteine, sog. FPGAs (engl. Fieldprogrammable Gate Arrays), zum Einsatz kommen. Dabei soll untersucht werden, inwieweit sich diese während des Betriebs umkonfigurieren lassen und sich dadurch einerseits Ressourcen sparen und andererseits kontextabhängige Funktionen bereitstellen lassen. 453 20.3.17 SpecVer: Verifikationsgerechte Spezifikation komplexer Systeme Projektleitung: Dr. Axel Schneider Beteiligte: Dr.-Ing. Christian Haubelt Dipl.-Inf. Martin Streubühr Dipl.-Inf. Jens Gladigau Laufzeit: 1.10.2005–30.9.2008 Förderer: Bayerische Forschungsstiftung Kontakt: Dr.-Ing. Christian Haubelt Tel.: +49-9131-85-25154 Fax: +49-9131-85-25149 E-Mail: [email protected] SpecVer erforscht neue Methoden zum Entwurf komplexer Systeme am Beispiel der Telekommunikationstechnik. Im Unterschied zu bisherigen Systemen werden auf hohem Abstraktionsniveau einsetzende, für nachträgliche Änderungen offene TopDown-Zugänge zur Spezifikation sowie zur engeren Verknüpfung von Spezifikation und Verifikation entwickelt. Dadurch wird die Produktivität und Fehlersicherheit dieser Entwurfsschritte nachhaltig erhöht (”first-time-right”). Die Ergebnisse lassen sich auf andere Bereiche z.B. Automotive, übertragen. Weitere Informationen sind im WWW unter folgender URL verfügbar: http://www12.informatik.unierlangen.de/research/specver. 20.3.18 SystemCoDesigner: Entwurfsraumexploration für eingebettete Systeme Projektleitung: Dr.-Ing. Christian Haubelt Beteiligte: Dipl.-Inf. Sabine Helwig Dipl.-Inf. Martin Lukasiewycz Dipl.-Inf. Michael Glaß Dipl.-Inf. Thomas Schlichter Beginn: 1.4.2005 Kontakt: Dr.-Ing. Christian Haubelt Tel.: +49-9131-85-25154 454 Fax: +49-9131-85-25149 E-Mail: [email protected] In diesem Projekt werden neue Modelle und Methoden zur automatischen Entwurfsraumexploration für eingebettete Systeme auf der Systemebene untersucht. Das grundlegende Problem stellt die optimale Allokation von Ressourcen sowie die optimale Bindung von Prozessen auf diese Ressourcen dar. Zum Einsatz kommen hierbei moderne Mehrzieloptimierungsverfahren sowie symbolische Techniken. Weiterhin besteht eine Kopplung zur Systembeschreibungssprache SystemC. Weitere Informationen sind im WWW unter folgender URL verfügbar http://www12.informatik.unierlangen.de/research/scd/. 20.3.19 SysteMoC: Darstellung von Berechnungsmodellen in SystemC Projektleitung: Dr.-Ing. Christian Haubelt Beteiligte: Dipl.-Inf. Jens Gladigau Dipl.-Ing. (FH) Joachim Falk Dipl.-Ing. Joachim Keinert Dipl.-Inf. Thomas Schlichter Dipl.-Inf. Martin Streubühr Beginn: 1.4.2005 Kontakt: Dr.-Ing. Christian Haubelt Tel.: +49-9131-85-25154 Fax: +49-9131-85-25149 E-Mail: [email protected] Die automatische Identifikation eingeschränkter Berechnungsmodelle stellt den Schlüssel zur Analyse und effizienten Synthese von Hardware/Software-Systemen dar. Programmiersprachen, wie Java, C++, etc. sind berechnungsuniversell und beschränken somit die Analyse und Synthese weitestgehend. Hier setzt das Projekt SysteMoC an. Basierend auf der Systembeschreibungssprache SystemC werden Konstruktionsregeln zur Verfügung gestellt, welche die Identifikation des zu Grunde liegenden Berechnungsmodells und somit den Zugang zur Analyse und effizienten Synthese von Hardware/Software Systemen erlauben. Weiter Informationen sind im WWW unter folgender URL verfügbar: http://www12.informatik.uni-erlangen.de/research/systemoc/. 455 20.3.20 Untersuchungen und Arbeiten im Bereich SystemC Schulungen und ICDesign Beteiligte: Dipl.-Inf. Thomas Schlichter Dr.-Ing. Christian Haubelt Laufzeit: 1.4.2004–31.3.2006 Förderer: Fraunhofer-Institut für Integrierte Schaltungen 20.4 Publikationen – Ahmadinia, Ali ; Bobda, Christophe ; Majer, Mateusz ; Teich, Jürgen: A Flexible Reconfiguration Manager for the Erlangen Slot Machine . In: Koch, Prof. Dr. Andreas ; Hochberger, Dr.-Ing. Christian (Veranst.) : Dynamically Reconfigurable Systems Workshop (Dynamically Reconfigurable Systems Workshop Frankfurt (Main), Germany 2006-03-16). Berlin, Heidelberg, New York : Springer, 2006, S. 183-194. – Ahmadinia, Ali ; Bobda, Christophe ; Majer, Mateusz ; Teich, Jürgen: The Erlangen Slot Machine: A Dynamically Reconfigurable FPGA-Based Computer . In: Journal of VLSI Signal Processing Systems (to appear) (2006) – Ahmadinia, Ali ; Bobda, Christophe ; Teich, Jürgen: Online Placement for Dynamically Reconfigurable Devices . In: Int. J. Embedded Systems 1 (2006), Nr. 3/4, S. 165-178 – Athanas, Peter ; Becker, Juergen ; Brebner, Gordon ; Teich, Jürgen (Veranst.): 06141 Abstracts Collection – Dynamically Reconfigurable Architectures . (Dynamically Reconfigurable Architectures Dagstuhl, Germany Dagstuhl, Germany) Dagstuhl, Germany : Internationales Begegnungs- und Forschungszentrum fuer Informatik (IBFI), Schloss Dagstuhl, Germany, 2006 (Dagstuhl Seminar Proceedings, Nr. 06141) . – ISSN 1862-4405 – Aßmus, Stefan ; Teich, Jürgen ; Ziener, Daniel: Identifying FPGA IP-Cores based on Lookup Table Content Analysis . In: IEEE (Hrsg.) : Proceedings of 16th International Conference on Field Programmable Logic and Applications (16th International Conference on Field Programmable Logic and Applications Madrid, Spain August 28-30, 2006). 2006, S. 481-486. 456 – Bhattacharyya, Shuvra ; Teich, Jürgen: Analysis of Dataflow Programs with Interval-limited Data-rates . In: Journal of VLSI Signal Processing Systems Vol. 43, Nos. 2-3 (2006), S. 247-258 – Bobda, Christophe ; Platzner, Marco ; Teich, Jürgen (Veranst.): The Renaissance of FPGA-Based High-Performance Computing . (DATE’06 Friday Workshop, Conference Design Automation and Test in Europe Munich, Germany Mar. 10, 2006) 2006 – Bunin, Grygoriy ; Haubelt, Christian ; Heinkel, Ulrich ; Langer, Jan ; Schneider, Axel: Automatic Test Case Generation with Model Checker NuSMV . In: GI Press (Hrsg.) : Proceedings of the Informatik 2006 – Workshop Modellbasiertes Testen (Informatik – Workshop Modellbasiertes Testen Dresden, Germany October 0210, 2006). 2006, S. 262-263. – Bunin, Grygoriy ; Haubelt, Christian ; Heinkel, Ulrich ; Schneider, Axel: Automatic Test Generation with Model Checking Techniques . In: ASQF (Hrsg.) : Proceedings of the Conference on Quality Engineering in Software Technology (Conference on Quality Engineering in Software Technology (CONQUEST) Berlin, Germany Sep 27-29, 2006). 2006, S. 307-318. – Dittrich, Steffen ; Haubelt, Christian ; Koch, Dirk ; Streichert, Thilo ; Strengert, Christian ; Teich, Jürgen: An Operating System Infrastructure for Fault-Tolerant Reconfigurable Networks . In: Springer (Hrsg.) : Proceedings of the 19th International Conference on Architecture of Computing Systems, Frankfurt / Main, Germany (19th International Conference on Architecture of Computing Systems (ARCS ), Frankfurt / Main, Germany Frankfurt, Germany March 13-16, 2006). 2006, S. 202-216. – Dorsch, Rainer ; Falk, Joachim ; Haubelt, Christian ; Schlipf, Thomas ; Streubühr, Martin ; Teich, Jürgen: Task-Accurate Performance Modeling in SystemC for Real-Time Multi-Processor Architectures . In: IEEE (Hrsg.) : Proceedings of Design, Automation and Test in Europe (Design, Automation and Test in Europe Munich, Germany March 6-10, 2006). Munich, Germany : IEEE Computer Society, 2006, S. 480-481. – Dutta, Hritam ; Hannig, Frank ; Heigl, Benno ; Hornegger, Heinz ; Teich, Jürgen: A Design Methodology for Hardware Acceleration of Adaptive Filter Algorithms in Image Processing . In: IEEE (Hrsg.) : Proceedings of IEEE 17th International Conference on Application-specific Systems, Architectures, and Processors (IEEE 17th International Conference on Application-specific Systems, Architectures, and Processors (ASAP) Steamboat Springs, CO, USA September 11-13, 2006). 2006, S. 331-337. – ISBN 978-0-7695-2682-9 457 – Dutta, Hritam ; Hannig, Frank ; Teich, Jürgen: A Formal Methodology for Hierarchical Partitioning of Piecewise Linear Algorithms . Am Weichselgarten 3, 91058 Erlangen, Germany : University of Erlangen-Nuremberg, Department of CS 12, Hardware-Software-Co-Design. 2006 (04-2006). – Interner Bericht – Dutta, Hritam ; Hannig, Frank ; Teich, Jürgen: Controller Synthesis for Mapping Partitioned Programs on Array Architectures . In: IEEE (Hrsg.) : Proceedings of the 19th International Conference on Architecture of Computing Systems (19th International Conference on Architecture of Computing Systems (ARCS) Frankfurt am Main, Germany March 13-16, 2006). Bd. 3894. Berlin, Heidelberg, New York : Springer, 2006, S. 176-191. (Lecture Notes in Computer Science (LNCS)) – ISBN 3-540-32765-7 – Dutta, Hritam ; Hannig, Frank ; Teich, Jürgen: Hierarchical Partitioning for Piecewise Linear Algorithms . In: IEEE (Hrsg.) : Proceedings of the 5th International Conference on Parallel Computing in Electrical Engineering (5th International Conference on Parallel Computing in Electrical Engineering (PARELEC) Bialystok, Poland Sep. 13-17, 2006). 2006, S. 153-160. – ISBN 978-0-7695-2554-9 – Dutta, Hritam ; Hannig, Frank ; Teich, Jürgen: Mapping a Class of Dependence Algorithms to Coarse-grained Reconfigurable Arrays: Architectural Parameters and Methodology . In: International Journal of Embedded Systems 2 (2006), Nr. 1/2, S. 114-127 – Dutta, Hritam ; Hannig, Frank ; Teich, Jürgen: Mapping of Nested Loop Programs onto Massively Parallel Processor Arrays with Memory and I/O Constraints . In: Meyer auf der Heide, Friedhelm ; Monien, Burkhard (Hrsg.) : Proceedings of the 6th International Heinz Nixdorf Symposium, New Trends in Parallel & Distributed Computing (6th International Heinz Nixdorf Symposium, New Trends in Parallel & Distributed Computing January 17-18, 2006). Bd. 181. Paderborn, Germany : Heinz Nixdorf Institut, 2006, S. 97-119. (HNI-Verlagsschriftenreihe) – ISBN 3-939350-001 – Falk, Joachim ; Haubelt, Christian ; Teich, Jürgen: Efficient Representation and Simulation of Model-Based Designs in SystemC . In: ECSI (Hrsg.) : Proc. FDL’06, Forum on Design Languages 2006 (Forum on Specification & Design Languages Darmstadt, Germany Sep 19, 2006). 2006, S. 129 – 134. – Falk, Joachim ; Gladigau, Jens ; Haubelt, Christian ; Teich, Jürgen: SysteMoC – Verification and Refinement of Actor-Based Models of Computation .Vortrag: ARTIST2 Workshop on MoCC – Models of Computation and Communication, ETH Zurich, Zurich, Switzerland, 16.11.2006 458 – Fekete, Sandor ; Köhler, E. ; Teich, Jürgen: Higher-dimensional packing with order constraints (to appear) . In: SIAM Journal on Discrete Mathematics (2006) – Fekete, Sandor ; Majer, Mateusz ; Teich, Jürgen ; van der Veen, Jan: Minimizing communication cost for reconfigurable slot modules . In: IEEE (Hrsg.) : Proceedings of 16th International Conference on Field Programmable Logic and Applications (16th International Conference on Field Programmable Logic and Applications (FPL06) Madrid, Spain August 28-30, 2006). 2006, S. 535-540. – Glaß, Michael: Designing Low Power Hardware / Software Systems . In: University Erlangen-Nurenberg ; Tongji University ; Shanghai Jiao Tong University (Veranst.) : Proceedings of the 1st Chinese-German Summer School (1st ChineseGerman Summer School Shanghai, China September 18-28, 2006). Erlangen : Institute for Material Science 6, University of Erlangen-Nuremberg, 2006, S. 561567. – Göhringer, Diana ; Majer, Mateusz ; Teich, Jürgen: Bridging the Gap between Relocation and Available Technology: The Erlangen Slot Machine . In: Athanas, Peter ; Becker, Juergen ; Brebner, Gordon ; Teich, Jürgen (Veranst.) : Proceedings of the Dagstuhl Seminar No. 06141 on Dynamically Reconfigurable Architectures (Dynamically Reconfigurable Architectures Dagstuhl, Germany April 02-07, 2006). Dagstuhl, Germany : Internationales Begegnungs- und Forschungszentrum fuer Informatik (IBFI), Schloss Dagstuhl, Germany, 2006, S. 7 – 18. (Dagstuhl Seminar Proceedings, Nr. 06141) – Hannig, Frank ; Kissler, Dmitrij ; Kupriyanov, Alexey ; Teich, Jürgen: A Dynamically Reconfigurable Weakly Programmable Processor Array Architecture Template . In: Soares Indrusiak, Leandro ; Glesner, Manfred ; Torres, Lionel (Hrsg.) : Sassatelli, Gilles (Veranst.) : Proceedings of the 2nd International Workshop on Reconfigurable Communication Centric System-on-Chips (2nd International Workshop on Reconfigurable Communication Centric System-on-Chips (ReCoSoC) Montpellier, France July 3-5, 2006). 2006, S. 31-37. – ISBN 2-9517461-2-1 – Hannig, Frank ; Kissler, Dmitrij ; Koch, Dirk ; Kupriyanov, Alexey ; Teich, Jürgen: A Generic Framework for Rapid Prototyping of System-on-Chip Designs . In: Hamid R., Arabnia ; Mehrnoosh Eshaghian-Wilner, Mary (Hrsg.) : Proceedings of International Conference on Computer Design (International Conference on Computer Design (CDES) Las Vegas, NV, USA 2006-06-26). USA : CSREA Press, 2006, S. 189-195. – ISBN 1-60132-009-4 – Hannig, Frank ; Kissler, Dmitrij ; Kupriyanov, Alexey ; Teich, Jürgen: A Highly Parameterizable Parallel Processor Array Architecture . In: IEEE (Hrsg.) : Proceedings of the IEEE International Conference on Field Programmable Technology 459 (IEEE International Conference on Field Programmable Technology (FPT) Bangkok, Thailand December 13-15, 2006). 2006, S. 105-112. – ISBN 0-7803-9728-2 – Hannig, Frank ; Kissler, Dmitrij ; Kupriyanov, Alexey ; Merker, Renate ; Schaffer, Rainer ; Teich, Jürgen: An Architecture Description Language for Massively Parallel Processor Architectures . In: GI Press (Hrsg.) : Proceedings of the GIITGGMM-Workshop – Methoden und Beschreibungssprachen zur Modellierung und Verifikation von Schaltungen und Systemen (GIITGGMM-Workshop – Methoden und Beschreibungssprachen zur Modellierung und Verifikation von Schaltungen und Systemen Dresden, Germany February 20-22, 2006). 2006, S. 11-20. – Hannig, Frank ; Merker, Renate ; Siegel, Sebastian ; Teich, Jürgen: Communication-conscious Mapping of Regular Nested Loop Programs onto Massively Parallel Processor Arrays . In: IEEE (Hrsg.) : Proceedings of the 18th International Conference on Parallel and Distributed Computing and Systems (18th International Conference on Parallel and Distributed Computing and Systems (PDCS) Dallas, TX, USA November 13-15, 2006). 2006, S. 71-76. – ISBN 0-88986638-4 – Hannig, Frank ; Kissler, Dmitrij ; Kupriyanov, Alexey ; Teich, Jürgen: Hardware Cost Analysis for Weakly Programmable Processor Arrays . In: IEEE (Hrsg.) : Proceedings of the International Symposium on System-on-Chip (International Symposium on System-on-Chip (SoC) Tampere, Finland November 14-16, 2006). 2006, S. 179-182. – ISBN 1-4244-0621-8 – Hannig, Frank ; Kissler, Dmitrij ; Kupriyanov, Alexey ; Schaffer, Rainer ; Teich, Jürgen: MAML – An Architecture Description Language for Modeling and Simulation of Processor Array Architectures, Part I . Am Weichselgarten 3, 91058 Erlangen, Germany : University of Erlangen-Nuremberg, Department of CS 12, Hardware-Software-Co-Design. 2006 (03-2006). – Interner Bericht – Hannig, Frank ; Kissler, Dmitrij ; Kupriyanov, Alexey ; Lallet, Julien ; Pillement, Sébastien ; Sentieys, Olivier ; Teich, Jürgen: Modeling of Interconnection Networks in Massively Parallel Processor Architectures . Am Weichselgarten 3, 91058 Erlangen, Germany : University of Erlangen-Nuremberg, Department of CS 12, Hardware-Software-Co-Design. 2006 (05-2006). – Interner Bericht – Haubelt, Christian ; Niemann, Bernhard: Assertion-Based Verification of Transaction Level Models . In: GI Press (Hrsg.) : GIITGGMM-Workshop 2006 – Methoden und Beschreibungssprachen zur Modellierung und Verifikation von Schaltungen und Systemen (GIITGGMM-Workshop – Methoden und Beschreibungsspra- 460 chen zur Modellierung und Verifikation von Schaltungen und Systemen Dresden, Germany 2006-02-20). 2006, S. 232-236. – Haubelt, Christian ; Koch, Dirk ; Streichert, Thilo ; Teich, Jürgen: Concepts for Self-Adaptive Automotive Control Architectures .Vortrag: DATE’06 Friday Workshop Future Trends in Automotive Electronics and Tool Integration, IEEE, Munich, Germany, 10.03.2006 – Haubelt, Christian ; Streichert, Thilo ; Strengert, Christian ; Teich, Jürgen: Dynamic Task Binding for Hardware/Software Reconfigurable Networks . In: ACM (Hrsg.) : SBCCI’06: Proceedings of the 19th annual symposium on Integrated circuits and systems design (19th annual symposium on Integrated circuits and systems design Ouro Preto, MG, Brazil 2006-08-28). New York, NY, USA : ACM Press, 2006, S. 38-43. – Haubelt, Christian: Eine modellbasierte Entwurfsmethodik für SystemC .Vortrag: Invited talk, Professur Schaltkreis- und Systementwurf, TU Chemnitz, Chemnitz, Germany, 01.02.2006 – Haubelt, Christian ; Niemann, Bernhard: Formalizing TLM with Communicating State Machines . In: GI Press (Hrsg.) : Proceedings of the Forum on Specification and Design Languages (FDL’06) (Forum on Specification and Design Languages (FDL’06) Darmstadt, Germany September 19-22, 2006). 2006, S. 285-292. – Haubelt, Christian ; Schlichter, Thomas ; Teich, Jürgen: Improving Automatic Design Space Exploration by Integrating Symbolic Techniques into Multi-Objective Evolutionary Algorithms . In: International Journal of Computational Intelligence Research (IJCIR), Special Issue on Multiobjective Optimization and Applications 2 (2006), Nr. 3, S. 239-254 – Haubelt, Christian ; Lukasiewycz, Martin ; Schlichter, Thomas ; Teich, Jürgen: Improving System Level Design Space Exploration by Incorporating SAT-Solvers into Multi-Objective Evolutionary Algorithms . In: IEEE Computer Society (Hrsg.) : Proceedings of Annual Symposium on VLSI (Annual Symposium on VLSI Karlsruhe, Germany March 2-3, 2006). 2006, S. 309-314. – Haubelt, Christian ; Keinert, Joachim ; Teich, Jürgen: Modeling and Analysis of Windowed Synchronous Algorithms . In: IEEE (Hrsg.) : Proceedings of the 31st International Conference on Acoustics, Speech and Signal Processing (International Conference on Acoustics, Speech and Signal Processing (ICASSP) Toulouse, France May 14-19, 2006). 2006, S. 892-895. 461 – Haubelt, Christian ; Koch, Dirk ; Streichert, Thilo ; Teich, Jürgen: Modeling and Design of Fault-Tolerant and Self-Adaptive Reconfigurable Networked Embedded Systems . In: EURASIP Journal on Embedded Systems (2006), S. 1 – 15 – Haubelt, Christian ; Streichert, Thilo ; Teich, Jürgen: Multi-Objective Topology Optimization for Networked Embedded Systems . In: Takala, Jarmo (Hrsg.) : Proceedings Int. Conf. on Embedded Computer Systems: Architectures, Modeling, and Simulation (IC-SAMOS 2006) (Int. Conf. on Embedded Computer Systems: Architectures, Modeling, and Simulation (IC-SAMOS ) Samos, Greece July 17-20, 2006). 2006, S. 93-98. – Haubelt, Christian: SystemCoDesigner – Eine Entwurfsmethodik für SystemCBeschreibungen .Vortrag: Oldenburger Forschungs- und Entwicklungsinstitut für Informatik-Werkzeuge und Systeme OFFIS, Oldenburg, Germany, 24.04.2006 – Haubelt, Christian: SystemCoDesigner – Eine Entwurfsmethodik für SystemCBeschreibungen .Vortrag: Institute of Computer and Communication Network Engineering, TU Braunschweig, Braunschweig, Germany, 28.04.2006 – Koch, Dirk ; Körber, Mathias ; Teich, Jürgen: Searching RC5-Keys with Distributed Reconfigurable Computing . In: Dr. Plaks, Toomas P. (Hrsg.) : Proceedings of International Conference on Engineering of Reconfigurable Systems and Algorithms (International Conference on Engineering of Reconfigurable Systems and Algorithms (ERSA ) Las Vegas, USA June 26-29, 2006). USA : CSREA Press, 2006, S. 42-48. – ISBN 1-60132-011-6 – Lukasiewycz, Martin: Model-Based Embedded System Design . In: University Erlangen-Nurenberg ; Tongji University ; Shanghai Jiao Tong University (Veranst.) : Proceedings of the 1st Chinese-German Summer School (1st ChineseGerman Summer School Shanghai, China September 18-28, 2006). Erlangen : Institute for Material Science 6, University of Erlangen-Nuremberg, 2006, S. 511518. – Majer, Mateusz: An FPGA-Based Dynamically Reconfigurable Platform: from Concept to Realization . In: IEEE (Hrsg.) : Proceedings of 16th International Conference on Field Programmable Logic and Applications (16th International Conference on Field Programmable Logic and Applications Madrid, Spain August 28-30, 2006). 2006, S. 963-964. – Streichert, Thilo: Placing Functionality in Fault-Tolerant Hardware/Software Reconfigurable Networks . In: IEEE (Hrsg.) : Proceedings of 16th International Conference on Field Programmable Logic and Applications (16th International Conference on Field Programmable Logic and Applications Madrid, Spain August 28-30, 2006). 2006, S. 927 – 928. 462 – Streichert, Thilo: Power Aware Design . In: University Erlangen-Nurenberg ; Tongji University ; Shanghai Jiao Tong University (Veranst.) : Proceedings of the 1st Chinese-German Summer School (1st Chinese-German Summer School Shanghai, China September 18-28, 2006). Erlangen : Institute for Material Science 6, University of Erlangen-Nuremberg, 2006, S. 539-551. – Teich, Jürgen: Are Current ESL Tools Meeting the Requirements of Advanced Embedded Systems? In: ACM (Hrsg.) : CODES ISSS ’06: Proceedings of the 4th international conference on Hardware/software codesign and system synthesis (4th international conference on Hardware/software codesign and system synthesis Seoul, Korea October 22-25, 2006). New York, NY, USA : ACM Press, 2006, S. 166. – Teich, Jürgen ; Ziener, Daniel: FPGA Core Watermarking Based on Power Signature Analysis . In: IEEE (Hrsg.) : Proceedings of IEEE International Conference on Field-Programmable Technology (IEEE International Conference on FieldProgrammable Technology (FPT ) Bangkok, Thailand December 13-15, 2006). 2006, S. 205-212. – Teich, Jürgen: Stochastic Timing Analysis of Communicating Tasks with Internal State . Hardware-Software-Co-Design, Am Weichselgarten 3, D-91058 Erlangen : University of Erlangen-Nuremberg, Department of Computer Science, HardwareSoftware-Co-Design. 2006 (02-2006) – Teich, Jürgen: Timing Analysis of Systems of Communicating Tasks with Internal State . Hardware-Software-Co-Design, Am Weichselgarten 3, D-91058 Erlangen : University of Erlangen-Nuremberg, Department of Computer Science, HardwareSoftware-Co-Design. 2006 (01-2006) – Teich, Jürgen ; Kaxiras, Stefanos ; Plaks, Toomas P. ; Flautner, Krisztián : Topic 18: Embedded Parallel Systems . In: IEEE (Hrsg.) : Proceedings of the 12th International Euro-Par Conference (Euro-Par 2006 Parallel Processing Dresden, Germany Aug. 28 – Sep. 1, 2006). Berlin, Heidelberg, New York : Springer, 2006, S. 1179. (Lecture Notes in Computer Science (LNCS), Nr. 4128) – ISBN 978-3540-37783-2 – Wanka, Rolf: Approximationsalgorithmen – Eine Einführung . Wiesbaden : Teubner, 2006. – ISBN 978-3-519-00444-8 – Wanka, Rolf: Von der Hollerith-Maschine zum Parallelrechner .Vortrag: Universität Erlangen-Nürnberg, Collegium Alexandrinum, 27.04.2006 – Ahmadinia, Ali ; Fekete, Sándor ; Göhringer, Diana ; Majer, Mateusz ; Teich, Jürgen ; van der Veen, Jan: Offline and Online Aspects of Defragmenting the 463 Module Layout of a Partially Reconfigurable Device . In: IEEE Transactions on Very Large Scale Integration (VLSI) systems (2007) – Angermeier, Josef ; Fekete, Sándor ; Göhringer, Diana ; Majer, Mateusz ; Teich, Jürgen ; van der Veen, Jan: Scheduling and communication-aware mapping of HW-SW modules for dynamically and partially reconfigurable SoC architectures . In: Platzner, M. ; Großpietsch, K. ; Hochberger, C. ; Koch, A. (Hrsg.) : Proc. of the 20th International Conference on Architecture of Computing Systems (ARCS ’07 – 20th International Conference on Architecture of Computing Systems Zurich, Switzerland March 12-15, 2007). Berlin : VDE-Verlag, 2007, S. 151-160. – Angermeier, Josef ; Fekete, Sándor ; Göhringer, Diana ; Majer, Mateusz ; Teich, Jürgen ; van der Veen, Jan: The Erlangen Slot Machine: A Platform for Interdisciplinary Research in Reconfigurable Computing . In: IT – Information Technology 49 (2007), Nr. 3, S. 143-148 – Beckhoff, Christian ; Koch, Dirk ; Teich, Jürgen: Bitstream Decompression for High Speed FPGA Configuration from Slow Memories . In: IEEE (Veranst.) : Proc. of the IEEE International Conference on Field-Programmable Technology 2007 (IEEE International Conference on Field-Programmable Technology 2007 (ICFPT’07) Kokurakita, Kitakyushu, JAPAN 2007-12-12). New York : IEEE Press, 2007, S. 161-168. – Bergmann, Neil ; Platzner, Marco ; Teich, Jürgen: Dynamically Reconfigurable Architectures . In: EURASIP Journal on Embedded Systems (2007), S. Article ID 28405, 2 pages – Bringmann, Oliver ; Ernst, Rolf ; Herkersdorf, Andreas ; Hojenski, Katharina ; Janacik, Peter ; Rammig, Franz ; Stechele, Walter ; Teich, Jürgen ; Wehn, Norbert ; Zeppenfeld, Johannes ; Ziener, Daniel: Autonomic MPSoCs for Reliable Systems . In: GMM/VDE/VDI (Veranst.) : Proceedings of Zuverlässigkeit und Entwurf (ZuD 2007) (Zuverlässigkeit und Entwurf (ZuD ) Munich, Germany March 2628, 2007). 2007, S. 137-138. – Bringmann, Oliver ; Ernst, Rolf ; Herkersdorf, Andreas ; Hojenski, Katharina ; Janacik, Peter ; Rammig, Franz ; Stechele, Walter ; Teich, Jürgen ; Wehn, Norbert ; Zeppenfeld, Johannes ; Ziener, Daniel: Concepts for Autonomic Integrated Systems . In: GI/ITG/GMM (Hrsg.) : Proceedings of edaWorkshop07 (edaWorkshop07 Hannover, Germany 19.-20. Juni 2007). Berlin : VDE, 2007, S. ?-?. ISBN 978-3-8007-3038-4 – Busse, Marcel ; Streichert, Thilo: Time Synchronization . In: Wagner, Dorothea ; Wattenhofer, Roger (Hrsg.) : Algorithms for Sensor and Ad Hoc Networks. Ber464 lin Heidelberg : Springer, 2007, (Lecture Notes in Computer Science (LNCS) Bd. 4621), S. 359-380. – ISBN 978-3-540-74990-5 – Deyhle, Andreas ; Falk, Joachim ; Hadert, Andreas ; Haubelt, Christian ; Keinert, Joachim ; Schlichter, Thomas ; Streubühr, Martin ; Teich, Jürgen: A SystemCbased Design Methodology for Digital Signal Processing Systems . In: EURASIP Journal on Embedded Systems, Special Issue on Embedded Digital Signal Processing Systems (2007), S. Article ID 47580, 22 pages – Dittmann, Florian ; Haubelt, Christian ; Nebel, Wolfgang ; Rammig, Franz ; Schallenberg, Andreas ; Streubühr, Martin: Exploration, Partitioning and Simulation of Reconfigurable Systems . In: IT – Information Technology 49 (2007), Nr. 3, S. 149-156 – Dutta, Hritam ; Hannig, Frank ; Kissler, Dmitrij ; Ruckdeschel, Holger ; Stravet, Andrej ; Teich, Jürgen : A Unified Retargetable Design Methodology for Dedicated and Re-Programmable Multiprocessor Arrays: Case Study and Quantitative Evaluation . In: Toomas P. Plaks (Hrsg.) : Proceedings of the International Conference on Engineering of Reconfigurable Systems and Algorithms , Invited paper (International Conference on Engineering of Reconfigurable Systems and Algorithms (ERSA), Invited paper June 25-28, 2007). Las Vegas, NV, USA : WORLDCOMP, 2007, S. 14-24. – ISBN 1-60132-026-4 – Dutta, Hritam ; Hannig, Frank ; Ruckdeschel, Holger ; Teich, Jürgen: Efficient Control Generation for Mapping Nested Loop Programs onto Processor Arrays . In: Journal of Systems Architecture 53 (2007), Nr. 5, S. 300-309 – Dutta, Hritam ; Hannig, Frank ; Kissler, Dmitrij ; Kupriyanov, Alexey ; Merker, Renate ; Pottier, Bernard ; Schaffer, Rainer ; Siegel, Sebastian ; Teich, Jürgen : Massively Parallel Processor Architectures: A Co-design Approach . In: Kupriyanov, Alexey (Hrsg.) : Proceedings of the 3rd International Workshop on Reconfigurable Communication Centric System-on-Chips (3rd International Workshop on Reconfigurable Communication Centric System-on-Chips (ReCoSoC) Montpellier, France June 18-20, 2007). 2007, S. 61-68. – Gladigau, Jens ; Haubelt, Christian ; Niemann, Bernhard ; Teich, Jürgen: Mapping Actor-Oriented Models to TLM Architectures . In: ECSI (Veranst.) : Proc. of the Forum on Design Languages 2007 (Forum on Design Languages (FDL’07) Barcelona, Spain September 18-20, 2007). 2007, S. ?-?. – Glaß, Michael ; Haubelt, Christian ; Streichert, Thilo ; Teich, Jürgen: Design space exploration of reliable networked embedded systems . In: Journal on Systems Architecture 53 (2007), Nr. 10, S. 751-763 465 – Glaß, Michael ; Haubelt, Christian ; Lukasiewycz, Martin ; Streichert, Thilo ; Teich, Jürgen: Reliability-Aware System Synthesis . In: IEEE (Hrsg.) : Proceedings of Design, Automation and Test in Europe (Design, Automation and Test in Europe Nice, France April 16-20, 2007). New York : IEEE Press, 2007, S. 409414. – Glaß, Michael ; Haubelt, Christian ; Lukasiewycz, Martin ; Teich, Jürgen: SATDecoding in Evolutionary Algorithms for Discrete Constrained Optimization Problems . In: IEEE (Hrsg.) : Proceedings of the 2007 IEEE Congress on Evolutionary Computation (IEEE Congress on Evolutionary Computation Singapore, Singapore September 25-28, 2007). New York : IEEE Press, 2007, S. 935-942. – Glaß, Michael ; Haubelt, Christian ; Lukasiewycz, Martin ; Teich, Jürgen: Solving Multiobjective Pseudo-Boolean Problems . In: Marques-Silva, Joao ; Sakallah, Karem A. (Hrsg.) : Proceedings of Tenth International Conference on Theory and Applications of Satisfiability Testing (Tenth International Conference on Theory and Applications of Satisfiability Testing Lisbon, Portugal May 28-31, 2007). Berlin Heidelberg : Springer, 2007, S. 56-69. (Lecture Notes in Computer Science (LNCS) Bd. 4501) – ISBN 978-3-540-72787-3 – Glaß, Michael ; Haubelt, Christian ; Lukasiewycz, Martin ; Teich, Jürgen: Symbolic Archive Representation for a Fast Nondominance Test . In: Obayashi, S. ; Deb, K. ; Poloni, C. ; Hiroyasu, T. ; Murata, T. (Hrsg.) : Proceedings of the Fourth International Conference on Evolutionary Multi-Criterion Optimization (Fourth International Conference on Evolutionary Multi-Criterion Optimization (EMO’07) Sendai, Japan March 5-8, 2007). Berlin Heidelberg : Springer, 2007, S. 111-125. (Lecture Notes in Computer Science (LNCS) Bd. 4403) – ISBN 9783-540-70927-5 – Glaß, Michael ; Haubelt, Christian ; Lukasiewycz, Martin ; Streichert, Thilo ; Teich, Jürgen: Synthese zuverlässiger und flexibler Systeme . In: GMM/VDE/VDI (Veranst.) : Proceedings of Zuverlässigkeit und Entwurf (Zuverlässigkeit und Entwurf (ZuD 2007) Munich, Germany March 26-28, 2007). Berlin : VDE-Verlag, 2007, S. 141-148. – ISBN 978-3-8007-3023-0 – Hannig, Frank ; Kissler, Dmitrij ; Kupriyanov, Alexey ; Teich, Jürgen: Efficient Event-driven Simulation of Parallel Processor Architectures . In: Marwedel, Peter (Hrsg.) : Proc. of the 10th international workshop on Software & Compilers for Embedded Systems (Workshop on Software & Compilers for Embedded Systems (SCOEPS 2007) Nice, France April 20, 2007). New York : ACM, 2007, S. 71-80. – Hannig, Frank ; Kissler, Dmitrij ; Kupriyanov, Alexey ; Lallet, Julien ; Pillement, Sebastien ; Sentieys, Olivier ; Teich, Jürgen: Modeling of Interconnection Net466 works in Massively Parallel Processor Architectures . In: Platzner, M. ; Großpietsch, K. ; Hochberger, C. ; Koch, A. (Hrsg.) : Proceedings of the 20th International Conference on Architecture of Computing Systems (20th International Conference on Architecture of Computing Systems (ARCS) Zurich, Switzerland March 12-15, 2007). Berlin Heidelberg : Springer, 2007, S. 268-282. (Lecture Notes in Computer Science (LNCS)) – ISBN 978-3-540-71267-1 – Hannig, Frank ; Kissler, Dmitrij ; Teich, Jürgen: Schwach-programmiert macht stark . In: {Design (2007), Nr. 4, S. 34-39 – Haubelt, Christian ; Koch, Dirk ; Streichert, Thilo ; Strengert, Christian ; Teich, Jürgen: Communication Aware Optimization of the Task Binding in Hardware/Software Reconfigurable Networks . In: International Journal on Circuits and Systems (2007), S. 29-36 – Haubelt, Christian ; Koch, Dirk ; Teich, Jürgen: Efficient Hardware Checkpointing – Concepts, Overhead Analysis, and Implementation . In: SIGDA (Veranst.) : Proceedings of the 15th ACM/SIGDA International Symposium on FieldProgrammable Gate Arrays (15th ACM/SIGDA International Symposium on Field-Programmable Gate Arrays (FPGA ) Monterey, California, USA 2007-0218). New York : ACM Press, 2007, S. 188-196. – Haubelt, Christian ; Niemann, Bernhard ; Teich, Jürgen ; Uribe, Maite: Formalizing TLM with Communicating State Machines . In: Huss, Sorin A. (Hrsg.) : Advances in Design and Specification Languages for Embedded Systems. Berlin Heidelberg : Springer, 2007, S. 225-242. – ISBN 978-1-4020-6147-9 – Haubelt, Christian ; Koch, Dirk ; Streichert, Thilo ; Teich, Jürgen: Modeling and Synthesis of Hardware-Software Morphing . In: Univ. of Louisiana at Lafayette (Veranst.) : Proceedings of the International Symposium on Circuits and Systems (International Symposium on Circuits and Systems (ISCAS ) New Orleans, LA May 27 2007). New York : IEEE Press, 2007, S. 2746-2749. – Haubelt, Christian ; Keinert, Joachim ; Teich, Jürgen: Simulative Buffer Analysis of Local Image Processing Algorithms Described by Windowed Synchronous Data Flow . In: IEEE (Hrsg.) : Proc. of the SAMOS International Conference 2007 (SAMOS International Conference 2007 (IC-SAMOS’07) Samos July 1619, 2007). 2007, S. 161-168. – ISBN 1-4244-1058-4 – Haubelt, Christian ; Riedel, Carsten ; Streubühr, Martin ; Teich, Jürgen: System Level Modeling and Performance Simulation for Dynamic Reconfigurable Computing Systems in SystemC . In: GI/ITG/GMM (Veranst.) : Tagungsband zum 467 Workshop Methoden und Beschreibungssprachen zur Modellierung und Verifikation von Schaltungen und Systemen (10. Workshop ”Methoden und Beschreibungssprachen zur Modellierung und Verifikation von Schaltungen und Systemen” Erlangen, Germany March 05-07, 2007). Aachen, Germany : Shaker, 2007, S. 59-68. – Haubelt, Christian ; Niemann, Bernhard: Towards a Unified Execution Model for Transactions in TLM . In: ACM (Veranst.) : In Proceedings of Fifth ACM & IEEE International Conference on Formal Methods and Models for Co-Design (MEMOCODE’07) (Fifth ACM & IEEE International Conference on Formal Methods and Models for Co-Design Nice, France May 30 – June 01, 2007). New York : IEEE Press, 2007, S. 103-112. – Helwig, Sabine ; Wanka, Rolf: Particle Swarm Optimization in High-Dimensional Bounded Search Spaces . In: IEEE Press (Hrsg.) : Proceedings of the 2007 IEEE Swarm Intelligence Symposium (IEEE Swarm Intelligence Symposium 2007 Honolulu, Hawaii, USA April, 1-5). 2007, S. 198-205. – Helwig, Sabine ; Paetzold, Kristin ; Stoll, Tobias ; Wittmann, Stefan: Registration of measured and simulated non-ideal geometry using optimization methods . In: Weckenmann, Albert (Hrsg.) : Proceedings of the 10th CIRP International Seminar on Computer Aided Tolerancing (10th CIRP International Seminar on Computer Aided Tolerancing Erlangen, Germany March 21-23, 2007). Bd. 16. Aachen : Shaker, 2007. – Keinert, Joachim ; Falk, Joachim ; Haubelt, Christian ; Teich, Jürgen: ActorOriented Modeling and Simulation of Sliding Window Image Processing Algorithms . In: Chakraborty, Samarjit ; Eles, Petru (Hrsg.) : Proceedings of the 2007 IEEE/ACM/IFIP Workshop of Embedded Systems for Real-Time Multimedia (IEEE/ACM/IFIP Workshop of Embedded Systems for Real-Time Multimedia (ESTIMEDIA) Salzburg, Austria October 5th 2007). New York : IEEE Press, 2007, S. 113-118. – Koch, Dirk ; Streichert, Thilo ; Haubelt, Christian ; Teich, Jürgen: Efficient Reconfigurable On-Chip Buses . Schutzrecht EP07017975 Patentschrift (Anmeldetag 13.09.2007) – Rieß, Christian ; Wanka, Rolf: Periodic Load Balancing on the N-Cycle: Analytical and Experimental Evaluation . In: Kermarrec, Anne-Marie ; Bougé, Luc ; Priol, Thierry (Hrsg.) : Proc. 13th European Conference in Parallel Processing (Euro-Par) (13th European Conference in Parallel Processing Euro-Par’07, Rennes, France. August 27-31). 2007, S. 790-799. 468 – Haubelt, Christian ; Teich, Jürgen: Methoden und Beschreibungssprachen zur Modellierung und Verifikation von Schaltungen und Systemen . Aachen, Germany : Shaker Verlag, 2007. – Teich, Jürgen ; Haubelt, Christian: Digitale Hardware/Software-Systeme: Synthese und Optimierung . 2. Aufl. Berlin : Springer, 2007. – 597 Seiten. ISBN 978-3540-46822-6 – Teich, Jürgen: Reconfigurable Computing Systems . In: IT – Information Technology 49 (2007), Nr. 3, S. 139-142 – Ziener, Daniel ; Teich, Jürgen: Watermarking Apparatus, Software Enabling an Implementation of an Electronic Circuit Comprising a Watermark, Method for Detecting a Watermark and Apparatus for Detecting a Watermark . Schutzrecht SPatent US2007/0220263 aus EP1835425 Patentschrift (20.09.2007) 20.5 Studien- und Abschlussarbeiten – Diplomarbeit: Untersuchung zum Einsatz simulativer Verfahren zur Zeitanalyse in der Entwurfsraumexploration eingebetteter Systeme Bearbeiter: Martin Streubühr (beendet am 01.01.2006) Betreuer: Dr.-Ing. Christian Haubelt; Dipl.Ing. (FH) Joachim Falk – Studienarbeit: Ein Simulator für stückweise lineare Algorithmen mit laufzeitabhängigen Konditionalen Bearbeiter: Sven Kerschbaum (beendet am 15.01.2006) Betreuer: Dipl.-Ing. Frank Hannig – Studienarbeit: Entwurf und Implementierung eines Raman-basierten Sensors zur Erdgasanalyse Bearbeiter: Jörg Unglaub (beendet am 31.01.2006) Betreuer: Dr.Ing. Christian Haubelt – Studienarbeit: Load-Balancing auf dem Kreis Bearbeiter: Christian Riess (beendet am 07.02.2006) Betreuer: Prof. Dr. rer. nat. Rolf Wanka – Studienarbeit: Konzeption und Umsetzung von Sicherheitsmechanismen für die Überwachung von Automobilen Bearbeiter: Lukasz Fedorowicz (beendet am 17.02.2006) Betreuer: Dipl.-Ing. Thilo Streichert – Studienarbeit: Entwurf und Realisierung eines dynamischen Modul-Relokators für die ESM-Platform Bearbeiter: Christoph Lauer (beendet am 07.03.2006) Betreuer: Dipl.-Ing. Mateusz Majer 469 – Diplomarbeit: Laufzeituntersuchungen ausgewählter paralleler periodischer Sortierverfahren Bearbeiter: Daniel Loebenberger (beendet am 19.04.2006) Betreuer: Prof. Dr. rer. nat. Rolf Wanka – Diplomarbeit: Reconfiguration Manager for the Erlangen Slot Machine Bearbeiter: Christian Freiberger (beendet am 30.04.2006) Betreuer: Dipl.-Ing. Mateusz Majer; Prof. Dr.-Ing. Jürgen Teich – Studienarbeit: Modellierung und Analyse eines MPEG4-Decoders in SystemC Bearbeiter: Feng Yao (beendet am 01.05.2006) Betreuer: Dipl.-Ing. (FH) Joachim Falk; Dipl.-Ing. Joachim Keinert – Studienarbeit: Portierung einer BSP-Bibliothek auf Robertino-Roboter und experimentelle Evaluierung von Kooperation Bearbeiter: Thomas Schilling (beendet am 19.05.2006) Betreuer: Prof. Dr. rer. nat. Rolf Wanka – Studienarbeit: Evaluierung von Network Processor Engines für die Bildaufbereitung in eingebetteten Kamerasystemen Bearbeiter: Daniel Heiter (beendet am 24.05.2006) Betreuer: – Diplomarbeit: Automatic Test Case Generation from Formal Specifications Bearbeiter: Grygoriy Bunin (beendet am 31.05.2006) Betreuer: Dr.-Ing. Christian Haubelt – Diplomarbeit: Entwurfsraumexploration und Leistungsbewertung von dynamisch rekonfigurierbaren Systemen Bearbeiter: Carsten Riedel (beendet am 31.05.2006) Betreuer: Dr.-Ing. Christian Haubelt – Studienarbeit: Prinzipien des Organic Computing bei der Gesichtserkennung Bearbeiter: Matthias Gleiß (beendet am 31.05.2006) Betreuer: Prof. Dr. rer. nat. Rolf Wanka – Diplomarbeit: Symbolische Ablaufplanung von SysteMoC-Beschreibungen Bearbeiter: Jens Gladigau (beendet am 01.06.2006) Betreuer: Dr.-Ing. Christian Haubelt; Dipl.-Ing. (FH) Joachim Falk – Diplomarbeit: Entwurf eines generischen schwachprogrammierbaren Prozessorfeldes Bearbeiter: Dmitrij Kissler (beendet am 01.07.2006) Betreuer: Dipl.-Ing. Frank Hannig – Studienarbeit: Entwurf und Implementierung eines partiellen Reconfigurable Multiple Bus für die Erlangen Slot Machine Bearbeiter: Felix Reimann (beendet am 14.07.2006) Betreuer: Dipl.-Ing. Mateusz Majer 470 – Studienarbeit: Parametrierbare Parallelisierung von Aktorbasierten SystemCModellen Bearbeiter: Christian Zebelein (beendet am 15.07.2006) Betreuer: Dipl.-Ing. (FH) Joachim Falk – Diplomarbeit: Automatische Testbench- und Testfallgenerierung für SystemCModule Bearbeiter: Marc Lörner (beendet am 22.07.2006) Betreuer: Dipl.-Phys. Bernhard Niemann; Dr.-Ing. Christian Haubelt – Bachelor Thesis: Conception and Implementation of a Reference Medical Imaging Pipeline on an FPGA Bearbeiter: Nadege Gael Tchokoua Tchoukio (beendet am 28.07.2006) Betreuer: Hritam Dutta, M. Sc.; Dipl.-Ing. Frank Hannig – Diplomarbeit: Automatische Synthese der Kommunikationsinfrastruktur für Systementwurfspunkte mit bibliotheksbasierten IP-Cores Bearbeiter: Andreas Hadert (beendet am 01.08.2006) Betreuer: Dipl.-Ing. Joachim Keinert; Dipl.-Ing. (FH) Joachim Falk – Diplomarbeit: Konzeption und Entwurf eines Werkzeugs zur Softwaresynthese für SystemC-Modelle Bearbeiter: Andreas Deyhle (beendet am 01.08.2006) Betreuer: Dipl.-Ing. (FH) Joachim Falk – Diplomarbeit: Synchronisation verteilter Uhren in rekonfigurierbaren Netzwerken Bearbeiter: Nataliya Beer (beendet am 15.08.2006) Betreuer: Dipl.-Ing. Thilo Streichert – Diplomarbeit: Untersuchung von Algorithmen zur Replika-Platzierung in rekonfigurierbaren Netzwerken Bearbeiter: Christian Strengert (beendet am 17.08.2006) Betreuer: Dipl.-Ing. Thilo Streichert – Studienarbeit: Evaluierung eines Werkzeugs zur System-Synthese am Beispiel eines Audiodekoders Bearbeiter: Alexandr Gnezdilov (beendet am 31.08.2006) Betreuer: Dipl.-Ing. Frank Hannig – Diplomarbeit: Navigation und Pfadplanung von Robotern in bekannten Umgebungen Bearbeiter: Sigrid Renz (beendet am 15.09.2006) Betreuer: – Diplomarbeit: Prozessorfeld-Synthese für partitionierte verschachtelte Schleifenprogramme Bearbeiter: Holger Ruckdeschel (beendet am 30.09.2006) Betreuer: Dipl.-Ing. Frank Hannig; Hritam Dutta, M. Sc. – Diplomarbeit: Entwicklung und Bewertung eines SAT-Solvers zur multikriteriellen Optimierung von Pseudo-Booleschen Funktionen Bearbeiter: Martin Lukasiewycz (beendet am 23.10.2006) Betreuer: Dr.-Ing. Christian Haubelt 471 – Diplomarbeit: Sensorfusion in der Robotik: Matching von Laserscanner- und Videodaten zur Modellierung und Erkennung von Objekten und Szenen Bearbeiter: Stefan Wildermann (beendet am 30.11.2006) Betreuer: – Master Thesis: SlotComposer – Design and Implementation of an Automated Design Flow for Partially Reconfigurable FPGA Modules Bearbeiter: Plamen Shterev (beendet am 01.01.2007) Betreuer: Dipl.-Ing. Mateusz Majer; Prof. Dr.-Ing. Jürgen Teich – Studienarbeit: Digitale Signalverarbeitung auf parallelen Prozessorfeldern Bearbeiter: Andrei Stravet (beendet am 03.01.2007) Betreuer: Dipl.-Inf. Dmitrij Kissler; Dipl.-Ing. Alexey Kupriyanov – Diplomarbeit: Zuverlässigkeitsanalyse von fehlertoleranten rekonfigurierbaren Netzwerken Bearbeiter: Jörg Unglaub (beendet am 13.01.2007) Betreuer: Dipl.Ing. Thilo Streichert – Studienarbeit: Zwischencodeoptimierungen auf Schleifenprogrammen in Single-Assignment-Code-Sprachen Bearbeiter: Sebastian Nehls (beendet am 31.01.2007) Betreuer: Hritam Dutta, M. Sc.; Dipl.-Ing. Frank Hannig – Diplomarbeit: Entwurf und Implementierung einer Treiberarchitektur und ESMShell für die Erlangen Slot Machine Bearbeiter: Thomas Stark (beendet am 18.02.2007) Betreuer: Dipl.-Inf. Josef Angermeier – Diplomarbeit: Fehlertoleranz- und Verlässlichkeitsanalyse in der Entwurfsraumexploration Bearbeiter: Michael Glaß (beendet am 23.02.2007) Betreuer: Dipl.Ing. Thilo Streichert; Dr.-Ing. Christian Haubelt – Master Thesis: Concept and Implementation of an FPGA-Platform Independent Softcore RISC-CPU Bearbeiter: Thomas Walther (beendet am 28.02.2007) Betreuer: Dipl.-Ing. Dirk Koch – Diplomarbeit: Untersuchung eines dreifachredundanten SpaceWire-Netzwerkes für Satelliten Bearbeiter: Tobias Köber (beendet am 07.03.2007) Betreuer: Prof. Dr.-Ing. Wolfram H. Glauert – Diplomarbeit: Optimierung der Verteilung eines Sensornetzwerkes für Luftfahrtanwendundungen Bearbeiter: Jochen Kähler (beendet am 12.03.2007) Betreuer: Prof. Dr. rer. nat. Rolf Wanka – Studienarbeit: Kernelmodularchitektur für den Rekonfigurationsmanager der Erlangen Slot Machine Bearbeiter: Bruno Kleinert (beendet am 31.05.2007) Betreuer: Dipl.-Inf. Josef Angermeier; Dipl.-Ing. Mateusz Majer 472 – Diplomarbeit: Konzeption und Implementierung einer verbesserten Spurwechselunterstützung als vernetztes Fahrerassistenzsystems Bearbeiter: Benedikt Strasser (beendet am 07.06.2007) Betreuer: Dr.-Ing. Christian Haubelt – Diplomarbeit: Die Spektren populärer Verbindungsnetzwerke des parallelen Rechnens Bearbeiter: Christian Rieß (beendet am 21.06.2007) Betreuer: Prof. Dr. rer. nat. Rolf Wanka – Studienarbeit: Dynamische Nachbarschaftsgraphen in der Partikelschwarmoptimierung Bearbeiter: Johannes Jordan (beendet am 02.07.2007) Betreuer: Dipl.Inf. Sabine Helwig; Prof. Dr. rer. nat. Rolf Wanka – Studienarbeit: Dynamische Anpassung von FlexRay-Parametern bei der Prozessmigration Bearbeiter: Robert Brendle (beendet am 16.07.2007) Betreuer: Dipl.Ing. Thilo Streichert – Diplomarbeit: Einsatz von Methoden der Partikelschwarmoptimierung zur Lösung des MaxSAT-Problems Bearbeiter: Matthias Gleiß (beendet am 13.08.2007) Betreuer: Prof. Dr. rer. nat. Rolf Wanka – Studienarbeit: Secure Task Migration and Interprocess Communication in Reconfigurable, Distributed, Embedded Systems Bearbeiter: Thomas Schneider (beendet am 14.08.2007) Betreuer: Dipl.-Ing. Dirk Koch – Diplomarbeit: Entwurf und Implementierung einer Point-Rendering-Pipeline auf einem rekonfigurierbaren FPGA-System Bearbeiter: Stefan Hanke (beendet am 31.08.2007) Betreuer: Dipl.-Ing. Mateusz Majer – Studienarbeit: Entwicklung eines Multiagenten-Systems zur Steuerung des Datenaustausches kooperativer autonomer Systeme Bearbeiter: Xenia Brouk (beendet am 01.09.2007) Betreuer: Dipl.-Inf. Stefan Wildermann – Studienarbeit: Navigation und Kollisionsvermeidung eines mobilen Roboters mit Hilfe eines 3D-Laserscanners Bearbeiter: Igor Kats (beendet am 01.09.2007) Betreuer: Dipl.-Inf. Stefan Wildermann – Diplomarbeit: Eine graphische Entwicklungsumgebung für parallele Programmierung Bearbeiter: Ioana Gerauer (beendet am 17.09.2007) Betreuer: Dipl.-Inf. Holger Ruckdeschel – Studienarbeit: Average-Case-Untersuchungen beim ShearSort Bearbeiter: Gerhard Pfeiffer (beendet am 21.09.2007) Betreuer: Prof. Dr. rer. nat. Rolf Wanka 473 – Diplomarbeit: Generierung von Einheiten zur Überwachung von Kontrollpfaden in Hardware-Komponenten Bearbeiter: Stefan Aßmus (beendet am 06.10.2007) Betreuer: Dipl.-Ing. Daniel Ziener – Studienarbeit: Entwurf, Implementierung und Demonstration eines Entwurfsflusses für Hardware/Software-Morphing Bearbeiter: Florian Baueregger (beendet am 08.10.2007) Betreuer: Dipl.-Ing. Dirk Koch; Dipl.-Inf. Thomas Schlichter – Studienarbeit: IP Protection by Watermarking for FPGA Bitfiles and Netlists Bearbeiter: Moritz Schmid (beendet am 05.12.2007) Betreuer: Dipl.-Ing. Daniel Ziener – Diplomarbeit: Konzeption und Implementierung von Transformationen und Optimierungsmethoden zur automatischen Hardwaresynthese aus SysteMoCSystembeschreibungen Bearbeiter: Thomas Schilling (beendet am 14.12.2007) Betreuer: Dipl.-Inf. Thomas Schlichter 474 21 Professur für Informatik mit dem Schwerpunkt Effiziente Algorithmen und Kombinatorische Optimierung Allgemeine Angaben sowie Details zu Forschungsprojekten und -schwerpunkten finden sich unter den Eintragungen des Lehrstuhls 12 (Hardware-Software-Co-Design). 475 22 Informatik-Forschungsgruppe M (Medizinische Informatik) Anschrift: Martensstraße 1, 91058 Erlangen Tel.: 09131/85-25235 Fax: 09131/85-26754 E-Mail: [email protected] Leiter der Forschungsgruppe: Prof. Dr. biol. hom. Hans-Ulrich Prokosch Wiss. Mitarbeiter: Dipl.-Inform. Med. (FH) Andreas Becker PD Dr. Thomas Bürkle Dr. Thomas Ganslandt Dipl.-Inf. Andreas Klein Dr. Hubert Seibold Dr. Stefan Skonetzki-Cheng Dipl.-Inf. Reinhold Sojer Dipl.-Kff. (Univ.) Jasmina Suc Nichtwiss. Personal: Andreas Kröner Sekretariat: Martin Ross Der effiziente Einsatz von Informations- und Kommunikationstechnologien im Krankenhaus und in anderen Institutionen des Gesundheitswesens gewinnt immer mehr an Bedeutung. Immer größerer Druck zur Kostensenkung zwingt zur Optimierung aller Prozesse. Gleichzeitig ist eine kontinuierlich hohe Qualität der Krankenversorgung sicherzustellen. Moderne IT-Verfahren bieten das Potential, um die Krankenhäuser in diesen Aufgaben zu unterstützen. Die Einführung der elektronischen Gesundheitskarte und des elektronischen Arztausweises führen zu einer zunehmenden Vernetzung mit vielen neuen Aufgabengebieten. Die Realisierung einer multimedialen elektronischen Patientenakte stellt immer noch eine große Herausforderung dar. Am Lehrstuhl für Medizinische Informatik / Forschungsgruppe M bearbeiten wir in verschiedenen Arbeitsgruppen unterschiedliche Teilbereiche dieses Spektrums. Schwerpunkte unserer Forschungen liegen auf der Konzeption und Einführung Elektronischer Krankenakten, der Integration wissensverarbeitender Funktionen in Krankenhausinformationssysteme, der Modellierung und Abbildung von Arbeitsabläufen sowie der Visualisierung klinischer Behandlungspfade mit dem Ziel der Prozessoptimierung in der 476 Medizin. Wissensmanagement, Data-Warehouse-Anwendungen und Data Mining, die Konzeption von Bilddatenmanagementsystemen, die Entwicklung von Methoden und Verfahren zur Sektor-übergreifenden Vernetzung bis hin zur Bereitstellung elektronischer Gesundheitsakten für den Bürger sowie die Evaluation der Auswirkungen von EDVMaßnahmen und elektronischen Informationsmedien auf die Beteiligten im Gesundheitssystem runden unser Forschungsprofil ab. Der Leiter des Lehrstuhls für Medizinische Informatik, Professor Hans-Ulrich Prokosch, ist als Chief Information Officer (CIO) gleichzeitig für die operative Gestaltung und strategische Weiterentwicklung der Informationsverarbeitung im Universitätsklinikums Erlangen verantwortlich. 22.1 Forschungsschwerpunkte • Architekturkonzepte für Informationssysteme im Gesundheitswesen • Elektronische Patientenakten, Visualisierung Medizinischer Behandlungspfade • Telematikanwendungen im Gesundheitswesen • Prozessanalyse, Prozessmodellierung und Prozessoptimierung • Medizinische Ontologien und Medizinische Wissensverarbeitung • Evaluation von Informationssystemen im Gesundheitswesen • IT-Infrastrukturanwendungen für die Medizinische Forschung 22.2 Forschungsrelevante apparative Ausstattung Diverse IT-Werkzeuge und klinische Applikationen, unter anderem Aris WorkflowManagement-Werkzeug, ICU-Data Patientendatenmanagementsystem, Cognos Data Warehouse, verschiedene Webapplikationen 22.3 Kooperationsbeziehungen Dozentenaustausch mit der Privaten Universität für Medizinische Informatik und Technik (UMIT, Innsbruck) im Rahmen des Erasmusprogramms Kooperation Hochschule für Technik und Informatik, Bern 477 Mitarbeiter-Austausch mit dem Hôpital Européen George Pompidou, Paris Institut für Medizinische Experten- und Wissensbasierte Systeme der Medizinischen Universität Wien 22.4 Forschungsprojekte 22.4.1 Aufgaben und Architekturen einrichtungsweiter Bilddatenmanagementsysteme in der Medizin Projektleitung: Dr. Thomas Kauer Laufzeit: 1.6.2004–31.5.2006 Förderer: DFG Deutsche Forschungsgemeinschaft Kontakt: Dr. Thomas Kauer Tel.: 09131/85-36743 Fax: 09131/85-36799 E-Mail: [email protected] Medizinische Bilddatenmanagementsysteme werden noch überwiegend als radiologische Abteilungsinformationssysteme betrachtet. Aufbauend u. a. auf dem DFG-Workshop vom April 2004 ist das erste Ziel des Vorhabens die Modellierung der Abläufe in allen Bilddaten erzeugenden und nutzenden medizinischen Fächern innerhalb der einzelnen Abteilung und als Teil des klinikumsweiten Workflows am Beispiel der Radiologie, Pathologie und Endoskopie an den Universitätsklinika Mainz und Erlangen. Im Mittelpunkt steht das Verständnis der Gemeinsamkeiten und Unterschiede in der Nutzung bildgebender Verfahren zwischen den einzelnen Fachrichtungen. Darauf aufbauend soll als zweites Ziel ein Anforderungskatalog zu Aufgaben und Architekturen einrichtungsweiter Bilddatenmanagementsysteme erarbeitet werden, der um die für alle Fächer geltenden Anforderungen der Bilddaten-verwaltung und Datenspeicherung und –archivierung die fachrichtungsspezifischen der Bilddatenakquisition und –befundung gruppiert ist und der so möglichst verallgemeinerbar die Bedürfnisse der analysierten Fachabteilungen erfasst. So wird versucht, ein generisches Modell für die Nutzung von Bilddaten und die Anforderungen an Bilddatenmanagement-systeme abzubilden. Der Anforderungskatalog soll Klinika bei der Beschaffung und die Industrie bei der Entwicklung von Bilddatenmanagementsystemen unterstützen. Als drittes Ziel soll ein webbasiertes Softwarewerkzeug entwickelt werden, in dem zu beantragende und bereits bestehende Installationen dokumentiert werden können. Die 478 hierbei vorgesehenen Auswertemöglichkeiten und Plausibilitätsprüfungen werden eine wichtige Hilfe z. B. auch in Begutachtungsverfahren darstellen. Publikationen – Struck, Matthias: Aufnahme und automatische Auswertung der Atemgeräusche von Schlaf-Apnoe-Patienten . Erlangen, Universität Erlangen-Nürnberg, StudArb., 2006 – Prokosch, Hans-Ulrich ; Ganslandt, Thomas ; Dumitru, Corina ; Ückert, F: Krankenhausinformationssysteme als Architekturpfeiler des eHealth . In: Praxis der Wirtschaftsinformatik 251 (2006), Nr. Oktober, S. 42-53 – Prokosch, Hans-Ulrich ; Ganslandt, Thomas ; Dumitru, Corina ; Ückert, F: Telemedicine and collaborative health information systems . In: Information technology 48 (2006), Nr. 1, S. 12-23 22.4.2 Evaluation von Informationssystemen im Gesundheitswesen Projektleitung: Prof. Dr. biol. hom. Hans-Ulrich Prokosch Beteiligte: PD Dr. Thomas Bürkle Beginn: 1.1.2005 Kontakt: Prof. Dr. biol. hom. Hans-Ulrich Prokosch Tel.: 09131/85-26721 Fax: 09131/85-26754 E-Mail: [email protected] Vor der Einführung medizinischer Informationssysteme wird meist eine Wirtschaftlichkeitsberechnung durchgeführt, um die Rentabilität derartiger Maßnahmen abzuschätzen. Viel zu selten aber wird auch nach der Einführung neuer Informationstechnologien die Auswirkung dieser Interventionen auf die Mitarbeiterzufriedenheit, Arbeitsprozesse, Prozesskosten oder sogar die Krankenversorgung evaluiert. Darüber hinaus sind Untersuchungen zur Einstellung der betroffenen Nutzer von neuen Informationstechnologien gegenüber diesen Systemen, zur Benutzerfreundlichkeit der Bedienoberflächen und zur Akzeptanz neuer Technologien wichtige Voraussetzungen, für deren effizienten Einsatz im Gesundheitswesen. Bei all diesen Analysen zum Health Technology Assessment sind sowohl gesundheitsökonomische Fragestellungen 479 als auch soziotechnologische Randbedingungen zu berücksichtigen. Der Lehrstuhl für Medizinische Informatik beschäftigt sich in diesem Kontext mit der Entwicklung neuer Evaluationsmethoden und deren Einsatz und Überprüfung in praktischen Evaluationsstudien. Publikationen – Birkmann, Christine ; Dumitru, Corina ; Prokosch, Hans-Ulrich: Evaluation of health-related Internet use in Germany . In: Methods of information in medicine 45 (2006), Nr. 4, S. 367 – Dumitru, Corina: A systematic approach for the evaluation of Web based personal health records in Germany . Erlangen, Universität Erlangen-Nürnberg, Diss., 2006 – Steiner, Christian: Analyse des Markets von E-Learning-Systemen . Erlangen, Universität Erlangen-Nürnberg, Diss., 2006 – Birkmann, Christine ; Dumitru, Corina ; Prokosch, Hans-Ulrich: Evaluation der Internet-Nutzung in Gesundheitsfragen . In: Klar, Rüdiger ; Köpcke, Wolfgang ; Klar, Rüdiger ; Lax, H. ; Weiland, S. ; Zaiß, A. (Hrsg.) : Tagungsband der 50. Jahrestagung der Deutschen Gesell-schaft f*r Medizinische Informatik, Biometrie und Epidemiologie (GMDS), 2005 (50. Jahrestagung der Deutschen Gesellschaft für Medizinische Informatik, Biometrie und Epidemiologie Freiburg 2005). Hürth : LUP AG, 2006, S. 124-125. – Hertlein, Tino: Evaluation des Digital Pen im medizinischen Umfeld . Erlangen, Universität Erlangen-Nürnberg, Dipl-Arb., 2006 – Birkmann, Christine ; Dumitru, Corina ; Prokosch, Hans-Ulrich: Web-based personal health records in Germany: a systematic evaluation . In: Klar, Rüdiger ; Köpcke, Wolfgang ; Kuhn, Klaus ; Lax, H ; Weiland, S. ; Zaiß, A. (Hrsg.) : Tagungsband der 50. Jahrestagung der Deutschen Gesellschaft f*r Medizinische Informatik, Biometrie und Epidemiologie (GMDS), 2005 (50. Jahrestagung der Deutschen Gesellschaft f*r Medizinische Informatik, Biometrie und Epidemiologie (GMDS) Freiburg 2005). Hürth : LUP AG, 2006, S. 181-183. – Beisig, Alexander: Computeruntersützung bei der Score-Erfassung auf der Intensivstation . Erlangen, Universität Erlangen-Nürnberg, Dipl-Arb., 2007 480 22.4.3 Intelligente Vernetzung und Adaption von IT-Systemen zur Qualitätssteigerung der Behandlung von Glaukompatienten Projektleitung: Prof. Dr. biol. hom. Hans-Ulrich Prokosch Beteiligte: Dipl.-Inf. Frederic Gerdsen Laufzeit: 1.7.2003–30.6.2006 Förderer: Deutsche Forschungsgemeinschaft SFB 539: Teilprojekt C5 Mitwirkende Institutionen: Lehrstuhl für Informatik 6 (Datenbanksysteme) der Universität Erlangen-Nürnberg Augenklinik des Universitätsklinikums Erlangen Kontakt: Prof. Dr. biol. hom. Hans-Ulrich Prokosch Tel.: 09131/85-26721 Fax: 09131/85-26754 E-Mail: [email protected] Für eine effektive und erfolgreiche Behandlung von Glaukompatienten ist eine regelmäßige Kontrolle vieler Faktoren (Augeninnendruck, Medikation, Allergien, Form und Grad des Glaukoms) unter Berücksichtigung des individuellen Patientenkontexts (Krankheitsverlauf, Behandlungshistorie etc.) unerlässlich. Der Screening-/Diagnostik/Therapie-Prozess kann sich dabei im Kontext des SFB 539 über verschiedene Phasen von Patientenkontakten erstrecken, beginnend mit dem Screening-Feldversuch (durchgeführt im Teilprojekt A.4) über die ambulante Diagnostik und Abklärung bis hin zur (ambulanten oder stationären) Therapie und der regelmäßigen Nachsorge. Eine effektive Forschung ist nur möglich, wenn die dabei verwendeten medizinischen Daten aus dem unmittelbaren Prozess der Krankenversorgung abgeleitet werden, sich über Anwendungssystemgrenzen hinweg in einem konsistenten, aufeinander abgestimmten Zustand befinden und automatisch Bestandteil einer lebenslangen elektronischen Krankenakte werden. Im Rahmen einer immer dringlicher werdenden sektorübergreifenden Vernetzung muss gleichzeitig die Integration dieser Daten in institutionsübergreifende elektronische Patientenakten bis hin zur persönlichen Gesundheitsakte eines Bürgers berücksichtigt werden. Ziel des Teilprojekts C5 ist daher die Schaffung vernetzter, mit den verschiedenen Ausprägungsstufen elektronischer Akten integrierter und modular anpassbarer IT-Komponenten sowohl zur Unterstützung von Diagnostik und Behandlung von Glaukompatienten als auch zur Unterstützung von Forschungsarbeiten. Zur Optimierung des Zusammenspiels der verschiedenen zu integrierenden 481 IT-Komponenten und der klinischen Arbeitsprozesse ist eine prozessunterstützende Datenlogistik zu entwickeln. Medizinische Daten können in diesem Kontext in verschiedenen Stufen des Patientenkontakts anfallen, werden zum Teil durch ärztliches Personal oder ärztliches Hilfspersonal erhoben und dokumentiert oder mittels signal-/bilderzeugender Modalitäten gewonnen (z.B. Screening im Feldversuch, Pulse-Air-Tonometer, Scanning Laser Tomograph (HRT), Frequency-Doubling-Perimeter (FDT), Non-Mydriatic-Funduskamera, ambulante Zweituntersuchung, automatische diagnostische Unterstützung durch statistische und bildverarbeitende Komponenten und Selbst-Tonometrie (durch Patienten) in der diagnostischen Kontrolle. Das Datengut • kann dabei z.B. zunächst in Relation zu Bürgern (Screening-Feldversuch) stehen, die noch keinen unmittelbaren Kontakt zum Erlanger Universitätsklinikum haben müssen, • anschließend für eine Subpopulation (ausgewählte Bürger, die zur ambulanten Zweituntersuchung einbestellt werden) erhoben werden, die ambulante (bzw. später evtl. auch stationäre) Patienten in der Erlanger Augenklinik sind und • im Rahmen einer kontinuierlichen Verlaufsbeobachtung (z.B. mittels der SelbstTonometrie) auch durch Patienten selbst dokumentiert werden. Diese Daten müssen kommuniziert werden mit einem breiten Spektrum an Gesundheitsversorgern aus unterschiedlichen Sektoren des Gesundheitswesens bis hin zum Bürger/Patienten selbst. Heute werden die Daten noch in vielen, nicht ausreichend miteinander verbundenen Einzelsystemen erhoben und in voneinander unabhängig konzipierten Datenbanken gehalten. Oftmals werden sie an einem Ort erhoben, verbleiben dort und werden nicht mit Daten verknüpft, die in anderen Phasen der Diagnostik/Therapie aus anderen Quellen erhoben werden. Eine optimale Diagnostik und Therapie durch die behandelnden Ärzte benötigt aber einen Einblick in alle über den Patienten vorhandene Informationen unabhängig von Ort und Zeitpunkt deren Entstehung. Das im Sonderforschungsbereich entwickelte Glaukomregister soll ein Ort sein, an dem viele solcher dezentral aufgenommenen Daten zusammenfließen und aus dem wiederum Kommunikationsprozesse zu Komponenten der elektronischen Krankenakte bzw. sogar einer Elektronischen Gesundheitsakte angestoßen werden. Müssen heute die in verschiedenen Phasen und an verschiedenen Orten erhobenen Daten meist 482 noch manuell und damit fehleranfällig von einem DV-Anwendungssystem in ein anderes übertragen werden, so ist es das Ziel dieses Teilprojektes, die Datenflüsse zwischen diesen zum Teil schon existierenden, zum Teil noch im Aufbau begriffenen DVAnwendungen aufbauend auf einer intelligenten prozessgestützten Datenlogistik (IntDaLog) zu automatisieren. Dadurch wird eine Integration zwischen rein forschungsorientierten IT-Komponenten (u.a. das Screening im Feldversuch), den im Erlanger Universitätsklinikum zukünftig eingesetzten Modulen einer Elektronischen Krankenakte und den sektorübergreifend zu realisierenden Bausteinen einer Elektronischen Patientenbzw. Gesundheitsakte realisiert. Publikationen – Müller, Sascha ; Gerdsen, Frederic ; Prokosch, Hans-Ulrich ; Jablonski, Stefan: Standardisierte Kommunikation medizinischer Befunddaten aus einem GlaukomScreening-Programm in eine elektronische Krankenakte mittels SCIPHOX/CDA . In: GMDS e.V. (Hrsg.) : GMDS e.V. (Veranst.) : GMDS 50. Jahrestagung Freiburg 2005 (50. Jahrestagung der Deutschen Gesellschaft für Medizinische Informatik, Biometrie und Epidemiologie (gmds) Freiburg 11.-13.09.2005). 1. Aufl. Freiburg : GMDS, 2005, S. 121-123. – Gerdsen, Frederic ; Müller, Sascha ; Bader, Elisabeth ; Poljak, M. ; Jablonski, Stefan ; Prokosch, Hans-Ulrich: Standardized exchange of medical data between two different screening-programs and an electronic health record using SCIPHOX . In: Journal for quality of life research 3 (2005), Nr. 2 (Supplement 1), S. 141-144 – Gerdsen, Frederic ; Baleanu, D. ; Michelson, Georg ; Prokosch, Hans-Ulrich: Integrated and networked information systems for glaucoma research and patient care . In: Journal for quality of life research 2,1 (2004), Nr. (special issue), S. 151-154 – Gerdsen, Frederic ; Müller, Sascha ; Bader, Elisabeth ; Jablonski, Stefan ; Prokosch, Hans-Ulrich: Einsatz von CDA/SCIPHOX zur standardisierten Kommunikation medizinischer Befunddaten zwischen einem Schlaganfall-/GlaukomScreening-Programm und einer elektronischen Gesundheitsakte (EGA) . In: Telemed (Veranst.) : Telemed 2005 (Telemed 2005). Bd. 1, 1. Aufl. Berlin : Verlag des Veranstalters, 2005, S. 1-13. – Gerdsen, F ; Müller S ; Jablonski, Stefan ; Prokosch, Hans-Ulrich: Standardized exchange of clinical documents – towards a shared care paradigm in glaucoma treatment . In: Methods of information in medicine 45 (2006), Nr. 4, S. 359-366 483 22.4.4 Konzeption und Aufbau eines Internet-Portals für ein Forschungsnetz in der Medizin Projektleitung: Dr. Thomas Ganslandt Beteiligte: Dipl.-Inf. Andreas Klein Laufzeit: 1.10.2003–30.9.2008 Förderer: Netzwerk für seltene Erkrankungen: Epidermolysis Bullosa (EB); molekulare Pathomechanismen und neue Therapie-Strategien Kontakt: Dr. Thomas Ganslandt Tel.: 09131/85-26753 Fax: 09131/85-26754 E-Mail: [email protected] Dieses Netzwerk befasst sich mit den Ursachen, der Diagnose, der Prophylaxe und Behandlung der Epidermolysis Bullosa (EB), einer Gruppe von erblichen Hautkrankheiten, die durch traumainduzierte Blasenbildung der Haut und der Schleimhäute charakterisiert ist. Die chronische Hautfragilität bei Betroffenen hat einen hohen persönlichen, medizinischen und sozioökonomischen Einfluss auf das Leben der Patienten und ihrer Angehörigen. Wegen der Seltenheit der EB ist die klinische Erfahrung vieler Ärzte gering und Informationen über Spezialisten, die für die Diagnostik- und Therapiefragen herangezogen werden können, sind oft nicht vorhanden. Diese Konstellation führt dazu, dass viele Patienten erst nach langer Zeit eine kompetente Beratung und Behandlung erhalten. Ferner existiert z. Zt. noch keine kausale Therapie für die EB. Die geplanten Forschungsvorhaben zielen einerseits auf ein besseres Angebot von klinischen und diagnostischen Aspekten der EB sowie auf eine vollständigere Dokumentation in Form von Patientenregister und Datenbank, andererseits auf besseres Verständnis der Krankheitsmechanismen als Voraussetzung für die Entwicklung von neuen Therapieansätzen. Diese Erkenntnisse werden durch klinische, molekular- und zellbiologische, strukturelle Analysen sowie mit Studien mit transgenen Mäusen oder Gentransfer in vitro erarbeitet. Von der geplanten Zusammenarbeit erwarten wir wichtige neue Kenntnisse über die Pathophysiologie der EB. Ein Verständnis der Schlüsselvorgänge der Pathogenese wird neue diagnostische und therapeutische Anwendungen liefern und einen Effekt bezüglich diagnostischer Dienstleistungen, Prognose, genetischer und präventiver Beratung, Pflege sowie Betreuung von EB Patienten haben. Im Teilprojekt zur Bereitstellung einer Basis-Informationstechnologie liegt der Schwer484 punkt auf der Konzeption und Realisierung einer zentralen Internet-basierten Datenbank sowie eines Internet-Portals für das Netzwerk. Der in der Datenbank zu speichernde klinische Kerndatensatz wird mit den Partnern des Forschungsnetzes und mit internationalen EB-Registern abgestimmt, sodass die hier gewonnenen Daten international vergleichbar sind. Publikationen – Ganslandt, Thomas ; Ruderich, Franz ; Prokosch, Hans-Ulrich: Building a communication infrastructure for a multi-centric research network . In: Journal for quality of life research 2 (2004), Nr. 1 (Special issue), S. 125-127 – Klein, Andreas ; Prokosch, Hans-Ulrich ; Müller, M ; Ganslandt, Thomas: Experiences with an interoperable data acquisition platform for multi-centric research networks based on HL7 CDA . In: Methods of Information in Medicine 46 (2007), S. 580-585 – Klein, Andreas ; Ganslandt, Thomas ; Prokosch, Hans-Ulrich ; Brinkmann, L. ; Ückert, Frank: An XML-based remote data entry solution in a multi-centric research network . In: Journal for quality of life research 3 (2005), Nr. 2 (Supplement 1), S. 190-197 22.4.5 OPAL Health: Optimierte und sichere Prozesse durch mobile und intelligente Überwachung und Lokalisierung von Betriebsmitteln und Inventar in Kliniken und Krankenhäusern Projektleitung: Dr. Thomas Ganslandt Beteiligte: Dipl.-Inform. Med. (FH) Andreas Becker Laufzeit: 1.8.2007–31.7.2010 Förderer: BMWi Kontakt: Dr. Thomas Ganslandt Tel.: 09131/85-26753 Fax: 09131/85-26754 E-Mail: [email protected] Beim OPAL-Projekt handelt es sich um ein vom Bundesministerium für Wirtschaft und Technologie (BMWi) gefördertes interdisziplinäres Forschungsprojekt, das 485 an der Universität Erlangen/Nürnberg mit Beteiligung des Klinikums und 4 externen Partnern durchgeführt wird. Die Förderung wurde im Rahmen des SimoBIT-Programms (Sichere Anwendung der mobilen Informationstechnik zur Wertschöpfungssteigerung in Mittelstand und Verwaltung) eingeworben. Neben der Patientensicherheit und dem Behandlungserfolg stellt die Effizienz der Arbeitsprozesse ein Ziel von zunehmender Wichtigkeit im Gesundheitswesen dar. Klinische Abläufe zeichnen sich durch ein komplexes Zusammenwirken vieler Berufsgruppen aus, das auf eine entsprechende logistische Unterstützung angewiesen ist, um die richtigen Geräte und Materialien zum rechten Zeitpunkt am Patienten anwenden zu können. Ziel des OPAL-Projekts ist es, eine zukunftsweisende technische Systemlösung auf Basis mobiler Sensornetzwerke zur entwickeln und klinisch zu erproben, die als Standard zur Verfolgung, Überwachung und Optimierung von Produkt- und Prozessdaten innerhalb einer Klinik eingesetzt werden kann. Als repräsentative Implementierungsszenarien wurden die Überwachung von Blutkonserven sowie die Lokalisierung mobiler medizintechnischer Geräte ausgewählt. Zielgrößen sind hierbei die Steigerung der Patientensicherheit durch lückenloses Monitoring der Blutkonserven von der Allokation über den Transport zur Station bis zur Gabe an den Patienten, sowie Effizienzsteigerungen bei der Wartung und Einsatzplanung patientennah eingesetzter medizintechnischer Geräte. Im Rahmen der beiden Anwendungsfälle werden ausgewählte Objekte mit Sensorknoten mit eigener Intelligenz, so genannten ”Smart Objects” ausgestattet. Zusätzlich werden an zentralen Stellen ”Ankerknoten” mit Anschluss an das Klinikumsnetzwerk angebracht, die über Funktechnologien den Datenaustausch der Sensorknoten mit den klinikeigenen IT-Systemen ermöglichen. Durch diese mobilen Technologien können bisher fehlende Informationen wie z. B. Standort, Wartungszeitpunkt oder Zustand für eine kontinuierliche Prozessoptimierung genutzt werden. Die Partner des OPAL-Konsortiums ergänzen sich ideal in ihren Kompetenzen zur Erreichung der Projektziele: • Der Lehrstuhl für Medizinische Informatik koordiniert die Aktivitäten zwischen den klinischen und externen Partnern und übernimmt Aufgaben im Bereich der Anforderungsdefinition und des integrierten Berichtswesens. • Das Medizinische Zentrum für Informations- und Kommunikationstechnik (MIK) integriert die mobilen Sensornetzwerke in die IT-Infrastruktur des Klinikums und konzipiert und betreibt die Schnittstellen zwischen den IT-Systemen des Klinikums und des Projekts. • Die Anästhesiologische Klinik koordiniert und evaluiert den Anwendungsfall der Überwachung medizintechnischer Geräte. 486 • Die Transfusionsmedizinische und Hämostaseologische Abteilung koordiniert und evaluiert den Anwendungsfall der Verfolgung von Blutkonserven. • Die T-Systems GmbH übernimmt als Konsortialführer die Projektgesamtorganisation und stellt Softwarelösungen für das Produkttracking zur Verfügung. • Das Fraunhofer-Institut für Integrierte Schaltungen koordiniert die Entwicklung der mobilen Sensornetzwerke auf Hard- und Softwareebene und erstellt Algorithmen zur Optimierung der überwachten logistischen Prozesse. • Die Vierling Communications GmbH koordiniert die Produktion der im Klinikum auszurollenden mobilen Sensornetzwerkkomponenten. • Die Delta T GmbH koordiniert die Entwicklung und Bereitstellung von thermostabilen Transportsystemen für Blutkonserven. 22.4.6 Pathifier: ein Werkzeug zur Visualisierung klinischer Behandlungsabläufe Projektleitung: Dr. Thomas Ganslandt Beteiligte: Jantsch, Stefan Mascher, Kerstin Laufzeit: 1.1.2004–31.12.2006 Das Gesundheitswesen wird mit ständig wachsenden Anforderungen in Bezug auf Kosteneffizienz und Qualitätssteigerung konfrontiert. Im Zuge der Umsetzung von klinischen Leitlinien und Patientenpfaden nimmt die Analyse und Optimierung von klinischen Arbeitsabläufen hierbei einen zunehmenden Stellenwert ein. In der stationären und ambulanten Versorgung wird routinemäßig eine Vielzahl von Datenelementen dokumentiert und digital erfasst, die jedoch mit den bisher zur Verfügung stehenden Auswertungswerkzeugen nur unzureichend für die Betrachtung von Workflow-Aspekten erschlossen werden konnten. Ziel des ”Pathifier”-Projekts ist die Konzeption, Implementierung und Routineeinführung eines Werkzeugs zur Visualisierung von Patientendaten. Das System verwendet ein Zeitstrahl-Paradigma, mit dem eine Vielzahl von Datenelementen zu Behandlungsabläufen intuitiv grafisch dargestellt werden kann. Pathifier greift auf die im Rahmen der Routinedokumentation erfassten Datenelemente zurück, so dass für die Visualisierung keine zusätzliche Dokumentationsarbeit erforderlich ist. Nach Abschluss der Basisprogrammierung ist Pathifier in die Routinenutzung am Universitätsklinikum überführt worden und wird z.Zt. im laufenden Betrieb evaluiert. Weitere Ausbaustufen 487 des Systems zielen auf die Integration eines DRG-Web-Groupers sowie die integrierte Visualisierung von Patientenpfaden. Publikationen – Ganslandt, Thomas ; Kunzmann, Udo, Dipl. Kaufmann (Univ.) ; Diesch, Katharina ; Palffy, Peter ; Prokosch, Hans-Ulrich: Semantic challenges in database federation: lessons learned . In: Studies in health technology and informatics 116 (2005), S. 551-556 – Ganslandt, Thomas ; Jantsch, Stefan ; Mascher, Kerstin ; Prokosch, Hans-Ulrich: Digging for hidden gold: timeline-based visualization of heterogeneous clinical data . In: Journal for quality of life research 3 (2005), Nr. 2 (Supplement 1), S. 8284 – Gikas, Stelios: Implementierung einer parametrierbaren Geovisualierungskomponente für das Data Warehouse des Uniklinikums Erlangen . Erlangen, Universität Erlangen-Nürnberg, Dipl-Arb., 2007 – Gikas, Stelios: Einbindung einer Geovisualisierung in das Data Warehouse des Lehrstuhls für Medizinische Informatik der FAU Erlangen-Nürnberg . Erlangen, Universität Erlangen-Nürnberg, Stud-Arb., 2006 22.4.7 Prozessmodellierung/Prozessoptimierung: Erstellung eines prozessbasierten QM-Handbuchs Projektleitung: PD Dr. Thomas Bürkle Beteiligte: PD Dr. Thomas Bürkle Beginn: 1.1.2005 Kontakt: PD Dr. Thomas Bürkle Tel.: 09131/85-26790 Fax: 09131/85-26754 E-Mail: [email protected] In diesem Projekt wurden klinische Abläufe in der Poliklinik für Kieferorthopädie mit dem Werkzeug Aris abgebildet. Die Basis für diese Arbeit bildet das Qualitätsmanagement-Handbuch der Klinik. Die Poliklinik für Kieferorthopädie 488 betreibt ein aktives Qualitätsmanagement nach DIN EN ISO 9001 und hat das Qualitätsmanagement-Handbuch überwiegend prozessorientiert aufgebaut. Die bisherige Darstellung in einem einfachen Word Dokument bewirkte massive Probleme bei allfälligen Änderungen der Prozessabläufe. In dem Projekt wurde das vorliegende Qualitätsmanagement-Handbuch, exemplarisch auch für die Handbücher anderer Kliniken der Universitätsklinik Erlangen, mit den Werkzeugen des Prozessmanagement Tools Aris der Firma ids Scheer abgebildet und in Arbeitsabläufe umgesetzt, die in einer Intranet-Präsentation für alle Mitarbeiter der Klinik für Kieferorthopädie bereitgestellt wird. Erfolgreich umgesetzt wurde auch die Modellierung der nicht prozessorientierten Anteile des Handbuches sowie die interaktive Anbindung von Dokumenten der Poliklinik für Kieferorthopädie die bisher als Anhang geführt werden. Publikationen – Lang, Martin: Prozessmining und Prozessoptimierung zur Verbesserung klinischer Workflows im Umfeld bilderzeugender Fächer . Erlangen, Universität Erlangen-Nürnberg, Diss., 2008 – Bürkle, Thomas ; Baur, T ; Höss, N: Clinical pathways development and computer support in the EPR: lessons learned . In: Stud Health Technol Inform 124 (2006), S. 1025-1030 22.4.8 Verbesserung des Dokumentations- und Berichtswesens im Kontext der DRG-basierten Abrechnung Projektleitung: Prof. Dr. biol. hom. Hans-Ulrich Prokosch Beteiligte: Dipl.-Inf. (FH) Katharina Diesch Dr. Thomas Ganslandt Laufzeit: 1.7.2003–28.2.2006 Kontakt: Dr. Thomas Ganslandt Tel.: 09131/85-26753 Fax: 09131/85-26754 E-Mail: [email protected] Der Ruf nach der Beschaffung von Data Warehousesystemen wird in vielen deutschen 489 Krankenhäusern angesichts der derzeitigen Neugestaltung der Krankenhausfinanzierung immer lauter. Auf dem Markt angeboten werden solche Systeme z. Zt. unter den Namen Management Informationssystem (MIS), Führungsinformationssystem (FIS), integriertes Managementinformationssystem, Business Warehousesystem (BW) und vielen anderen Namen. Technologisch basierend all diese Systeme auf ELT-Komponenten (die als Schnittstellen zur den Primärsystemen des Krankenhauses dienen, deren Daten im Data Warehouse zusammengeführt werden sollen), OLAP-Komponenten und Komponenten zur Präsentation und Verteilung der erzeugten Berichte an die jeweiligen Zielgruppen. In den meisten Projekten zur Einführung eines Data Warehoussystems im Krankenhaus wird allerdings diesen technischen Komponenten eine viel zu hohe Bedeutung beigemessen. Den grundlegenden konzeptionellen Fragestellungen • Wer benötigt zu welchem Zeitpunkt in welcher Form welche Informationen als Grundlage für welche Entscheidungen? • Welcher Weg ist für die Kommunikation strategischer Entscheidungsinformationen an die jeweiligen Entscheidungsträger am besten geeignet? • Wie können Auswertungen aus Data Warehousesystemen am effizientesten aufbereitet und in Zielvereinbarungsge-sprächen zwischen der Krankenhausleitung und Klinikdirektoren eingesetzt werden? • Welche Rahmenbedingungen müssen geschaffen werden, damit das Krankenhaus-Management die erzeugten Berichte effizient für die Festlegung zukünftiger Unternehmensziele und für die Entscheidung der zukünftigen strategischen Ausrichtung einsetzen kann? • Welche Rahmenbedingungen müssen geschaffen werden, damit eine effiziente Informations- und Kommunikationskultur hinsichtlich entscheidungsrelevanter Informationen im Krankenhaus entsteht? wird dabei sehr häufig in der Projektvorbereitung keinerlei oder nur sehr wenig Aufmerksamkeit geschenkt. Dies obwohl in der einschlägigen Fachliteratur immer wieder darauf hingewiesen wird, dass das Scheitern von Data-Warehouse-Projekten in den wenigsten Fällen auf technologische Probleme zurückzuführen ist, sondern vielmehr die unklare Zielsetzung eines solchen Projektes dazu führt, dass das Potential eines derartigen Führungsinstruments nicht genutzt wird. 490 Ziel unseres Projektes ist es deshalb, den oben aufgeführten Fragestellungen in einem ausgewählten Analyse-/Berichtsumfeld (DRG-Controlling) nachzugehen und in Kooperation mit einigen Kliniken, dem Finanzdezernat und dem Vorstand des Universitätsklinikums Erlangen ein Konzept für ein modernes Analyse- und Berichtswesen im Krankenhaus zu erarbeiten. 22.4.9 WHO/European eHealth Consumer Trends Survey Projektleitung: Prof. Dr. biol. hom. Hans-Ulrich Prokosch Beteiligte: PD Dr.rer.nat. Berthold Lausen Laufzeit: 1.6.2005–31.5.2008 Förderer: WHO / EU DG Sanco Kontakt: Prof. Dr. biol. hom. Hans-Ulrich Prokosch Tel.: 09131/85-26721 Fax: 09131/85-26754 E-Mail: [email protected] Ziel der ”WHO/European eHealth consumer trends survey” ist es, ausgehend vom Gedanken des Patienten als Konsumenten, die Einstellungen und Wünsche der Patienten bzgl. der Nutzung von Internet-Technologien für Gesundheitsfragen zu erfassen. Hintergrund ist die im Zusammenhang mit der elektronischen Vernetzung des Gesundheitswesens zunehmend selbstständige und aktive Rolle der Patienten, die als kritische Konsumenten auftreten. Diese Einstellungen sollen auf europäischer Ebene ebenso untersucht werden, wie dies bereits auf nationaler Ebene im Norwegian Centre for Telemedicine in den Jahren 2000 bis 2002 geschah. Im Rahmen der eHealth Trends Survey wird erstmals die gesundheitsbezogene InternetNutzung in 7 europäischen Ländern systematisch verglichen. Das Ergebnis der Studie soll Aufschluss über den Internet-Gebrauch, die Einstellungen und die Bedürfnisse der gesundheitsorientierten Internet-Nutzer geben. Neben dem Vergleich zwischen den beteiligten Ländern soll auch die zeitliche Entwicklung der Einstellungen über 2 Jahre hinweg analysiert werden. 491 Publikationen – Andreassen, HK ; Bunnowska-Fedak, MM ; Chronaki, M ; Dumitru, Corina ; Pudule, I ; Santana, S ; et al.: European citizens’ use of E-health services: a study of seven countries. . In: BMC public health 10 (2007), Nr. 147, S. 1-7 [doi>10.1186/1471-2458-7-53] – Wangberg, SC ; Andreassen, HK ; Prokosch, Hans-Ulrich ; Santana, SM ; Sørensen, T ; Chronaki CE: Relations between Internet use, socio-economic status (SES), social support and subjective health . In: Health Promotion International Advance Access December (2007), S. dam039v1 – Dumitru, Corina ; Bürkle, Thomas ; Potapov, Sergej ; Lausen, Berthold ; Wieser, Bernhard ; Prokosch, Hans-Ulrich: Use and perception of Internet for health related purposes in Germany: results of a national survey . In: International Journal of Public Health 52 (2007), Nr. 5, S. 275-285 22.4.10 Wissensverarbeitende Systeme / Wissensmodellierung in der Medizin Projektleitung: PD Dr. Thomas Bürkle Beteiligte: Dipl.-Inf. Reinhold Sojer Laufzeit: 1.1.2006–31.12.2008 Der Einsatz wissensverarbeitender Systeme in der Medizin verfolgt das Ziel, die Qualität der Krankenversorgung durch prospektive Maßnahmen (Entscheidungsunterstützung und Entscheidungsmonitoring) zu optimieren. Insbesondere im Bereich der Arzneimitteltherapie haben bereits viele Studien (u.a. die Publikationen des amerikanischen Institute of Medicine ”To err is human.”) auf ein erhebliches Verbesserungspotential hingewiesen. Vor diesem Hintergrund beschäftigen sich die Forschungsarbeiten des Lehrstuhls für Medizinische Informatik mit Fragen der Modellierung von Wissen rund um die Arzneimitteltherapie und der Realisierung standardisierter Wissensmodule zum Einsatz im Kontext der Arzneiverordnung, u.a. zur Reduktion von unerwünschten Arzneimittelwirkungen. Publikationen – Sojer, Reinhold ; Bürkle, Thomas ; Criegee-Rieck, M ; Neubert, A ; Brune, Kay ; Prokosch, Hans-Ulrich: Knowledge modelling and knowledge representation in 492 hospital information systems to improve drug safety . In: Journal on Information Technology in Healthcare 4 (2006), Nr. 1, S. 29-37 – Krause, Stefan: Integration wissensbasierter Funktionen in ein kommerzielles Patientendatenmanagementsystem . Erlangen, Universität Erlangen-Nürnberg, DiplArb., 2008 – Beck, Andreas: Entwicklung eines Arzneimittelinformationssystems . Erlangen, Universität Erlangen-Nürnberg, Stud-Arb., 2007 – Schütz, Alexander: Rahmenbedingungen für und Erfahrungen mit der Portierung standardisierter Medizinischer Wissensmodule . Erlangen, Universität ErlangenNürnberg, Dipl-Arb., 2007 – Sojer, Reinhold: Transformation des Arzneimittelsicherheitsystems KLASSE in eine standardisierte Wissensrepräsentatio . Erlangen, Universität ErlangenNürnberg, Diss., 2008 – Kramer, Frank: Integration wissensbasierter Funktionen in ”Mobile Visite” . Erlangen, Universität Erlangen-Nürnberg, Stud-Arb., 2007 22.5 Projektunabhängige Publikationen – Hemer, Frank: Entwicklung eines Tablet PC GUIs als Teil einer Softwareprototypentwicklung zur mobile Visite . Erlangen, Universität Erlangen-Nürnberg, Dipl-Arb., 2006 – Haar, Thomas: Abbildung einer Infektionsdokumentation für nosokomiale Infektionen im klinischen Arbeitsplatzsystem SOARIAN . Erlangen, Universität Erlangen-Nürnberg, Dipl-Arb., 2007 – Pramatarov, Svetoslav: Implementierung einer Schnittstelle für den medizinischen Kommunikationsstandard VITAL zur Persistierung von EchtzeitDatenströmen . Erlangen, Universität Erlangen-Nürnberg, Stud-Arb., 2007 493 23 Informatik Sammlung Erlangen (ISER) Anschrift: Martensstraße 1-3, 91058 Erlangen Tel.: +49.9131.85.27031 E-Mail: [email protected] Leitung: Dr.-Ing. Claus-Uwe Linster Dr.-Ing. Stefan Turowski Dr. rer. nat. Franz Wolf Führungen: Dr.-Ing. Stefan Turowski externe Beziehungen: Dr. rer. nat. Franz Wolf Mitarbeit: Arno E. F. Kletzander, Stud. HK. Vorstand: Dr.-Ing. Gerhard Hergenröder Dr.-Ing. Claus-Uwe Linster Prof. Dr.-Ing. Wolfgang Schröder-Preikschat Dr. rer. nat. Franz Wolf Die Informatik ist als Wissenschaft noch jung, hat sich in den letzten Jahrzehnten jedoch mit beispielloser Rasanz entwickelt – mit weitreichenden Auswirkungen auf beinahe jeden Bereich der Gesellschaft. Diese Dynamik des Fachgebietes spiegelt sich auch in der Geschichte der Informatik-Sammlung wider, und dies in mehrfacher Hinsicht: Aus der zunehmenden Bedeutung der EDV-Technologie ergab sich für die Universität die Notwendigkeit, diese wissenschaftlich zu fundieren, was 1966 mit der Gründung des ”Instituts für mathematische Maschinen und Datenverarbeitung” (IMMD), dem heutigen Department Informatik, geschah. Um für die Universität die notwendige Rechenleistung bereitzustellen, erfolgte 1968 die Inbetriebnahme des Rechenzentrums (RZ), des heutigen ”Regionalen Rechenzentrums Erlangen” (RRZE). In beiden Einrichtungen führte die rasche technologische Entwicklung zur Ausmusterung der bisherigen Rechenanlagen und damit verbunden zu dem Wunsch, sie als Zeugen einer sich wandelnden Welt zu erhalten. Mit der zunehmenden Miniaturisierung der technischen Lösungen zeigte sich zudem das didaktische Potential der ”Vorväter”, der noch gröber gebauten – und dadurch sehr viel anschaulicheren – älteren Modelle. Im IMMD wie im RRZE wurden ausgediente Rechenanlagen oder deren Elemente aufbewahrt und die dazugehörigen Dokumente archiviert, in beiden Einrichtungen entstand das Vorhaben, der Öffentlichkeit durch eine Schausammlung 494 einen Einblick in den Wandel der Computertechnologie zu geben. 1997 schlossen sich die ”Informatik-Sammlung” des IMMD und das ”RRZE-Museum” zusammen zu ISER, der ”Informatik-Sammlung Erlangen”. Im Folgenden soll die Geschichte der Entstehung und Zusammenführung dieser Objektbestände nachgezeichnet werden. Sammlung im Institut für Informatik Wolfgang Händler (Abb. 2), der ”Vater der Erlanger Informatik” und Mitbegründer dieses Fachgebiets in Deutschland, hatte bereits 1948 damit begonnen, Beschreibungen, Dokumente und Berichte über die Entwicklung des Computerwesens zu sammeln. Als Mathematiker interessierte er sich überdies für historische mathematische Maschinen wie Astrolabien oder astronomische Uhren. Während seiner Tätigkeit als Mitarbeiter der Hauptabteilung Forschung der Zentraltechnik des Nordwestdeutschen Rundfunks in Hamburg bot sich ihm außerdem die Gelegenheit, für ausgedehnte Rechenarbeiten zu den Rechnern BESK (Stockholm) und G1, G2 (Göttingen) zu fahren, wo er weitere Dokumente für sein privates Informatik-Archiv akquirieren konnte. 495 1966 erhielt Händler den Ruf auf den neu gegründeten Lehrstuhl für Datenverarbeitung in Erlangen und die damit verbundene Leitung des IMMD. 1976 bezog das Institut den Neubau in der Martensstraße, das heutige ”Wolfgang-Händler-Hochhaus”. Nun konnte Händler sich einen lange gehegten Wunsch erfüllen und seine bislang privat zusammengetragene Dokumentation erweitern. Auf Beschluss des Institutsvorstandes wurde noch im gleichen Jahr das ”Informatik-Archiv” ins Leben gerufen und damit einer der beiden Grundsteine für die heutige ISER gelegt. Das Archiv sollte der wissenschaftsgeschichtlichen Forschung und der Lehre gleichermaßen dienen. Seine Aufgaben bestanden in der Erschließung und Vervollständigung des bereits gesammelten Materials sowie dem Aufbau einer Sammlung. Diese sollte einen möglichst lückenlosen Überblick über die Entwicklungsgeschichte der Rechengeräte geben – von den frühen mechanischen Rechenmaschinen und mathematischen Instrumenten bis zu den modernen Technologien elektronischer Datenverarbeitungsanlagen. In den Folgejahren erwarb Wolfgang Hohl, ein Mitarbeiter Händlers, zahlreiche Objekte für das Informatik-Archiv, die in der Industrie nicht mehr benötigt wurden. Zudem war das mathematische Praktikum bereits auf Großrechner und Dialogterminals umgestiegen, so dass 1977 die (elektro-)mechanischen Rechenmaschinen und analogen Instrumente des Mathematischen Instituts als Dauerleihgaben übernommen werden konnten, darunter die historische Staffelwalzen-Rechenmaschine Arithmomètre von 1868 sowie einige Planimeter, die zur mechanischen Ermittlung von Flächeninhalten dienen. Die erste Dauerausstellung wurde 1978 realisiert. Zwei Vitrinen im zweiten Stock des Informatik-Hochhauses und eine weitere im Hörsaalgebäude zeigten ”Mechanische Digitalrechenmaschinen und Mechanische Analogrechner” sowie die ”Entwicklungsgeschichte vom Abakus zu integrierten Schaltkreisen”. Dies blieb für lange Zeit die einzige öffentlich zugängliche Präsentation der Sammlungsobjekte. Eine Ausnahme bildete die kleine Ausstellung ”Vom Abakus zu integrierten Schaltungen”, die Händler 1982 in den Schaufenstern der Dresdner Bank am Schlossplatz zeigte, und durch die erstmals auch ein größeres Publikum die historischen Rechenmaschinen zu sehen bekam. Die Sammlung des Informatik-Archivs wuchs im Lauf der Jahre stark an. Die weitaus meisten Stücke gingen ihr dabei als Schenkung zu. Eine Rekonstruktion der 496 Schickard’schen Rechenmaschine von 1623 hingegen wurde für 6.000 DM angekauft. Ihr Rekonstrukteur, Baron von Freytag Löringhoff, stellte die Maschine im InformatikKolloquium persönlich vor. Da im ”Informatik- Archiv” die zusammengetragenen Objekte die archivalischen Quellen bald schon überwogen, entschloss man sich 1981 dazu, es in ”Informatik-Sammlung” umzubenennen. Im Folgejahr legte Hohl einen Katalog vor, in dem er den Sammlungsbestand systematisch erfasste und mit historischen Erläuterungen versah.1 Händler bezog aus der wachsenden Sammlung immer wieder Anschauungsmaterial für seine Vorlesungen, in denen er sich der Geschichte der mathematischen Instrumente und Maschinen widmete. Aber auch in Veröffentlichungen und Vorträgen nutzte er die Sammlung regelmäßig zur Erforschung der historischen Spuren der Informatik, wie auch die Jahresberichte des IMMD von 1976 bis 1993 belegen.2 Auf Wunsch des Vorstands des IMMD betreute Händler die Informatik-Sammlung auch nach seiner 1986 erfolgten Emeritierung bis 1997 weiter. Durch die fortgesetzte Eingliederung auch größerer Geräte ergab sich eine immer drängendere Raumnot. Um den teilweise ausgesprochen wertvollen Exponaten einen angemessenen Raum zu verschaffen und sie der Öffentlichkeit besser zugänglich zu machen als bisher, plante der Vorstand des IMMD 1990, den ungenutzten Innenhof im 2. Stock des Informatik-Hochhauses zu überdachen. Obwohl hierzu seitens des Universitätsbauamtes bereits erste Entwürfe vorlagen, konnte die Idee wegen fehlender Haushaltsmittel nie realisiert werden. Auch die 1994 angestellte Überlegung, einen Freundeskreis ”Informatik-Geschichte e.V.” zu gründen, um gegebenenfalls Spendenmittel einwerben zu können, verlief letztlich im Sande. Da die Informatik-Sammlung weiterhin über keine eigenen Ausstellungsmöglichkeiten verfügte, musste man sich auf die Präsentation in externen Räumen beschränken. Beispielsweise waren ausgewählte Objekte zum Thema ”2000 Jahre Computer – Von den Ursprüngen des Rechnens (Antikythera) bis zur aktuellen Forschung am IMMD (Leistungssteigerung durch Parallelität)” 1992/93 im Foyer des Schlosses und in den Schaufenstern der Dresdner Bank zu sehen.3 Sammlung im Rechenzentrum Im Vergleich mit anderen deutschen Hochschulen wurde das Rechenzentrum der FAU erst relativ spät eingerichtet, nämlich im Jahre 1968 mit der Inbetriebnahme der Rechenanlage Control Data 3300 (CD 3300). Die Leitung des RZ lag in den Händen des Mathematikers Franz Wolf, einem Schüler Händlers. Die Anlage wurde vorübergehend im Philosophiegebäude (Bismarckstr. 1) installiert und arbeitete zunächst im reinen Stapelbetrieb: Die Benutzer gaben ihre Rechenaufträge als Lochkartenstapel ab und erhielten nach Stunden die Ergebnislisten vom Schnelldrucker wieder zurück. Da die Datenverarbeitung hinter verschlossenen Türen geschah, sahen die Benutzer den Computer nicht. Erst nach dem 1971 erfolgten Umzug des Rechenzentrums ins Südgelände gab eine 497 Glasscheibe den Blick auf den Computer frei. Aufgrund des regen Interesses wurden für Einzelpersonen und kleinere Gruppen von Anfang an Führungen durch das Rechenzentrum angeboten, etwa im Rahmen von Lehrveranstaltungen, Tagungen oder am Tag der offenen Tür. Die ersten Jahre des Rechenzentrums waren geprägt von raschem Wachstum. Zwar gab es alsbald auch hier Platzprobleme, doch kam mangels ”alter Geräte” noch kein Gedanke an eine eigene Sammlungsaktivität auf. Dies änderte sich 1976 mit der Erweiterung zum Regionalen Rechenzentrum Erlangen. Einerseits brachte der Umzug des IMMD in das neue Hochhaus in der Martensstraße erheblichen Raumgewinn für das RRZE, andererseits ergab sich die Frage, was mit der in die Jahre gekommenen, aber stets sorgsam gepflegten Rechenanlage CD 3300 geschehen sollte, der nun die Verschrottung drohte. Dem Leiter des Rechenzentrums gelang es in letzter Minute, wenigstens Teile der bei ihren Nutzern so geschätzten Anlage als Anschauungsmaterial für die Entwicklung der Computertechnologie zu retten. Die damals geborgenen Elemente – Kernspeicherschrank, Konsole, Magnetbandgerät, zwei Wechselplattenlaufwerke mit Steuereinheit sowie elektronische Baugruppen und Drucktechnik – bildeten somit den Grundstock des späteren ”RRZE- Museums”. Seither bemühte man sich im Rechenzentrum darum, eine Sammlung ausgedienter Geräte aufzubauen und bei Führungen zu zeigen. Dennoch wurden aus heutiger Sicht viel zu viele der sperrigen Geräte aus Platzgründen verschrottet. Denn an eigenen Sammlungsräumen mangelte es nach wie vor. Die Unterbringungsmöglichkeiten besserten sich ein wenig, als mit dem Ende der Lochkarten-Ära in den 1980er Jahren die nun funktionslos gewordenen, fest eingebauten Lochkartenschränke im Benutzerbereich für die Aufbewahrung von Sammlungsobjekten genutzt werden konnten. Hier wurden vor allem Bauteile und Baugruppen von Rechenanlagen untergebracht. Zeitgleich begann man mit der Katalogisierung und Inventarisierung der Sammlung auf Basis von Karteikarten. Um eine geeignete Präsentationsmöglichkeit zu schaffen, bauten Mitarbeiter des Rechenzentrums in Eigenregie 19”-Schränke um, die 1990 als erste Sammlungsvitrinen im Benutzerbereich des Rechenzentrums aufgestellt wurden. Drei Jahre später feierte die Universität ihr 250-jähriges Gründungsjubiläum. Das Rechenzentrum konnte damals auf eine gerade einmal 25-jährige Geschichte zurückblicken – und tat dies unter anderem mit der Ausstellung ”Von der CD 3300 zu vernetzten PCs”. Bei der Vorbereitung wurde einmal mehr deutlich, dass die Geschichte des Rechenzentrums nicht ohne die Geschichte der Informatik erzählt werden kann, und diese nicht ohne ihre Vorgeschichte, wie sie sich beispielsweise in älteren mechanischen Rechenmaschinen dokumentiert – in Objekten also, die der Sammlung des Rechenzentrums fehlten, für einen umfassenden historischen Überblick aber unverzichtbar waren. Die Informatik-Sammlung Erlangen (ISER) Die 1990er Jahre brachten das Ende des zentralen Druckoutputs. Dies betraf vor al498 lem den Formulardruck für den Klinikbereich, der bislang zu den Aufgaben des RRZE gehört hatte. Damit wurde ein Teil des ehemaligen Papierlagers frei, in dem eine größere Zahl von Sammlungsobjekten untergebracht werden konnte. Als Händler vergeblich einen Nachfolger suchte und deshalb 1996 die Zusammenlegung der beiden Sammlungen anregte, die damals über jeweils rund 300 Objekte verfügten, begegnete die Leitung des Rechenzentrums diesem Vorschlag sehr wohlwollend. Die Vorstände von IMMD und RRZE klärten zunächst die anstehenden organisatorischen Fragen und legten in einer gemeinsamen Unterstützungserklärung die Zielvorstellungen und die erforderliche Ausstattung fest. Damit stand der Vereinigung der beiden Sammlungen nichts mehr im Wege. Im Juli 1997 wurde die ”Informatik-Sammlung Erlangen” (ISER) aus der Taufe gehoben. Der Sammlungsvorstand konstituierte sich, wie in der gemeinsamen Erklärung vereinbart, aus einem Vorstandsmitglied von Informatik (Wolfgang Händler) und RRZE (Ulrich Herzog) sowie dem Leiter des RRZE (Franz Wolf). Auf der ersten Vorstandssitzung im Oktober 1997 setzte sich der Vorstand zum Ziel, reale und virtuelle Ausstellungen unter besonderer Berücksichtigung regionaler Aspekte durchzuführen sowie die Präsentation der Sammlung anhand von Meilensteinen der Informatik-Geschichte zu betreiben. Zudem wurde ein Katalogisierungs- und Klassifikationsschema festgelegt, das auf Basis eines elektronischen Katalogs verwirklicht werden sollte. Zunächst allerdings mit einer separaten Inventarisierung, um beide Einrichtungen bei einem eventuellen Scheitern der Vereinigung wieder trennen zu können. Mit der offiziellen Eröffnung der ISER im Jahre 2000 wurde die Parallelführung im Katalog schließlich beseitigt. Dank der schon laufenden Vorbereitungen konnte für die Arbeiten am elektronischen Katalog eine ABM-Kraft eingestellt werden. Studentische Hilfskräfte legten eine Datenbank mit bebilderten Katalogblättern aller Objekte an, die über die ISER-Homepage abrufbar war und Anfang 1998 durch eine Suchfunktion ergänzt wurde. Seither wurde der Internet-Auftritt der Sammlung (www.iser.uni-erlangen.de) mehrfach modifiziert und erweitert, so dass inzwischen ein virtueller Ausstellungsbesuch der ISER möglich ist. Im Jahr 2006 konnte man im Internet 78.000 Besucher verzeichnen. Als Logo hat sich die Sammlung ein Symbol gewählt, das zugleich dem ”Vater der Erlanger Informatik” ein Denkmal setzt: den Händler’schen Kreisgraph. Händler verstarb im Februar 1998, hat aber noch erleben dürfen, dass es mit der Informatik-Sammlung stetig voranging. Im Eingangsbereich des InformatikHochhauses wurden neue Vitrinen aufgestellt und mit historischen Rechenhilfen und elektro-mechanischen Rechenmaschinen bestückt. In den Gängen im 1. Stock des RRZE-Gebäudes zeigen Vitrinen die Entwicklung der Computertechnologie sowie aktuelle Forschungsarbeiten. Ende 1999 trat Franz Wolf, der bisherige Leiter des RRZE, in den Ruhestand. Um ihn für die Sammlung nicht zu verlieren, ernannte der Kanzler der Universität ihn zum eh499 renamtlichen Direktor der Informatiksammlung. Am Tag der Informatik 2000 wurde die ”Informatiksammlung Erlangen” schließlich offiziell eröffnet, was die lokale Presse zu einer Schlagzeile auf der Titelseite veranlasste.4 Im Jahr 2006 übergab Wolf die Leitung der ISER an Claus-Uwe Linster, den bisherigen Geschäftsführer der Informatik und langjährigen Mitarbeiter am Lehrstuhl für Betriebssysteme. Seit Gründung der ISER nutzt die Sammlungsleitung konsequent alle Möglichkeiten, innerhalb und außerhalb der Universität die spannenden Geschichten zu Gehör zu bringen, die sich mit den historischen Gerätschaften erzählen lassen. Dazu gehören Beiträge in den Jahresberichten des RRZE und des Instituts für Informatik5 ebenso wie die Kolumne ”Fundstücke aus der ISER” 6 und Berichte über ISER-Aktivitäten7 in den Benutzerinformationen des RRZE. Zum 1000-jährigen Stadtjubiläum 2002 nahm ISER mit der Aktion ”Rechnen wie die Vorväter” am Unifestival auf dem Schlossplatz teil, im Herbst des Folgejahres beteiligte sie sich mit dem Modul ”Der Computer hat unsere Welt verändert” an der Ausstellung ”Appetithappen aus Erlanger Wissenschaftsund Technik-Sammlungen” im ”Museumswinkel”. Regelmäßige Führungsangebote und Vorträge runden diese Aktivitäten ab. Zu den großen Problemen der Informatik-Sammlung gehören, wie für viele andere Universitätssammlungen auch, die Ausstellungs- und Lagerflächen, derer es eigentlich bedürfte, um die Bestände angemessen zu zeigen und unterbringen zu können. Zwar konnten durch den strukturellen Wandel von zentralen Großrechnern zu vernetzten Systemen gewisse Freiräume für die Sammlung gewonnen werden, aber neue Dienstleistungen des RRZE wie etwa die Einrichtung eines MultiMediaZentrums (Uni-TV, elearning) erfordern immer wieder neue Arbeitsräume. Die Informatik-Sammlung versucht, die rasante Entwicklung einer Technologie vor Augen zu führen, die unser Leben grundlegend verändert hat. Zugleich richtet sie den Blick aber auch zurück in die Kulturgeschichte, auf die Wurzeln ihrer Disziplin. So ergibt sich beim Besuch der ISER stets eine doppelte zeitliche Perspektive: Einerseits enthält die Sammlung Exponate wie den Nachguss eines römischen Handabakus aus dem 1. Jh. n. Chr. oder die Rekonstruktion der Schickard’schen Rechenmaschine von 1623; andererseits dokumentiert sie die Innovationsprozesse der jüngsten Zeit anhand historisch bedeutender Objekte wie dem ersten elektronischen Minirechner (Tischrechner von Control Data, 1960), Teilen der ersten Anlage des Erlanger Rechenzentrums (Control Data 3300, 1968) oder dem topologischen Modell des Multiprozessors EGPA (Erlangen General Purpose Array, 1976). Durch den zweifachen Blick trägt sie dazu bei, die Gegenwart zu verstehen und ihr gleichzeitig historische Tiefe zu verleihen. 500 Für die Zukunft der ständig wachsenden Sammlung stellen sich indes einige Fragen: Soll nur Hardware gesammelt werden, oder auch Software? Wie kann letztere erfahrbar gemacht werden? Sollen alte Rechner und Geräte lauffähig gehalten werden, und ist dies mit vertretbarem Aufwand überhaupt zu erreichen? Und die zentrale Frage: Lassen sich geeignete Depot- und Ausstellungsflächen für den weiter anwachsenden Sammlungsbestand finden? So steht zu hoffen, dass der geplante Neubau für Mathematik und Informatik mit Verkehrsflächen ausgestattet wird, die eine großzügige Aufstellung von Vitrinen erlauben. Für die Geschichte der Informatik kann es wohl keinen besseren Platz geben als einen Ort, an dem die Gegenwart der Informatik gelehrt und die Zukunft der Informatik gedacht wird. (1) Hohl, Wolfgang: Informatik-Sammlung. Katalog mit historischen Erläuterungen. Erlangen 1982 (Arbeitsberichte des IMMD 15, Nr. 7). (2) Händlers Jahresberichte zum Informatik-Archiv bzw. zur Informatik-Sammlung finden sich in den Jahrgängen 1976-1993 der ”Jahresberichte der Informatik”, publiziert in den ”Arbeitsberichten des IMMD”, Bd. 9-26. (3) Vgl. zu dieser Thematik auch Händler, Wolfgang: Rechner von A bis Z – von Antikythera bis Zuse, in: InformatikSpektrum 3 (1980), S. 105-112. (4) Nürnberger Nachrichten: Museum für Rechner – Die Informatik-Sammlung Erlangen (ISER) wird eröffnet. (5) 501 Jahresberichte der ISER erschienen als Teil der ”Jahresberichte des RRZE” im ”Mitteilungsblatt des RRZE” 76 (2000), 78 (2001)-82 (2005) sowie in den ”Arbeitsberichten des Instituts für Informatik” 33/4, 34/18, 35/7, 36/8, 37/7, 38/5. (6) Hier eine Auswahl aus der Kolumne ”Fundstücke aus der ISER” in den Benutzerinformationen (BI) des RRZE: Wolf, Franz: Der Abakus, in: BI 66 (2001), S. 46f.; ders.: Das Arithmomètre von 1870, in: BI 68 (2002), S. 34f.; ders.: Magnetplatte TSP500, in: BI 70 (2003), S. 45f.; ders.: Bürocomputer Olivetti P203, in: BI 71 (2004). S. 37f. (7) Wolf, Franz: Unifestival 2002: Rechnen wie die Vorväter, in: BI 68 (2002), S. 5; ders.: Ausstellung im Museumswinkel – Appetithappen aus Erlanger Wissenschaftsund Techniksammlungen: Der Computer hat unsere Welt verändert, in: BI 71 (2004), S. 38. A Arbeitsberichte des Departments Informatik 1999 2007 In letzter Zeit sind folgende Arbeitsberichte des Instituts für Informatik erschienen: Band 32 Nr. 1 Nr. 25 Nr. 3 Katoen, Joost-Pieter: Concepts, Algorithms, and Tools for Model Checking (Juni 1999) Stein, Katrin: Integration von Anwendungsprozeßmodellierung und WorkflowManagement (Juli 1999) Geiger-Hilk, Ralph: Kommunikationsplanung in busgekoppelten Mehrrechnersystemen (Juli 1999) 502 Nr. 4 Koppe, Christoph: Systemintegration des User-Level-Scheduling – Betriebssystemdienste zur Unterstützung der parallelen Programmierung (Juli 1999) Nr. 5 Riechmann, Thomas: Sicherheit in verteilten, objektorientierten Systemen (Juli 1999) Nr. 6 Reitzner, Stephan: Koordinierung in nebenläufigen, objektorientierten Systemen (August 1999) Nr. 7 Hermanns, Holger: Interactive Markov Chains (September 1999) Nr. 8 Hastreiter, Peter: Registrierung und Visualisierung medizinischer Bilddaten unterschiedlicher Modalitäten (September 1999) Nr. 9 Teitzel, Christian: Adaptive Methods and Hierarchical Data Structures for Interactive Three-Dimensional Flow Visualization (September 1999) Nr. 10 Heinl, Petra: Entwicklung und Einsatz eines Qualitätsmodells für WorkflowManagement-Anwendungen (September 1999) Nr. 11 Lotter, Norbert: System Integration in the Design Process of the Manufacturing Industry based on OMG and ISO Standards (September 1999) Nr. 12 Teschke, Michael: Datenkonsistenz in Data Warehouse Systemen (November 1999) Nr. 13 Allmaier, Susann: Parallele Lösungen für stochastische Modellierung (Dezember 1999) 503 Nr. 14 Jahresbericht 1999 der Informatik (März 2000) Band 33 Nr. 1 Weigand, Ulrich: Zur deskriptiven Komplexität von monadischen Logiken der zweiten Stufe (Februar 2000) Nr. 2 Lemmen, Frank: Spezifikationsgesteuertes Monitoring zur Integration der Leistungsbewertung in den formalen Entwurf von Kommunikationssystemen (Februar 2000) Nr. 3 Buchacker, Kerstin: Definition und Auswertung erweiterter Fehlerbäume für die Zuverlässigkeitsanalyse technischer Systeme (Juli 2000) Nr. 4 Jahresbericht 2000 der Info

Continue lendo em http://doczz.net/doc/5792744/jahresbericht-2006-2007

Previous post Live Selling: Shoplus AI – ระบบจัดการร้านบน Facebook ยกระดับเพจร้านค้าด้วย AI
Next post Como Fazer Live Commerce? COMO FAZER TRANSMISSÃO AO VIVO? – FORTALEZA