Lade Inhalt...

Entwicklung eines benutzerorientierten Segmentiersystems für biomedizinische Bilder

©2010 Doktorarbeit / Dissertation 195 Seiten

Zusammenfassung

Inhaltsangabe:Einleitung:
In der heutigen medizinischen Bildverarbeitung werden oft Schwerpunkte auf die Bereiche MR, CT, Ultraschall und PET gelegt. Die Mikroskopie wird sehr häufig eher den biologischen, als den medizinischen Fächern zugeteilt. Hierbei wird jedoch häufig übersehen, welche Relevanz die Mikroskopie für die Klinik besitzt. Hier sei nur auf die folgenden Fachbereiche hingewiesen: Pathologie, Klinische Chemie, Mikrobiologie, Immunologie, Virologie, um nur einige zu nennen. Allen gemeinsam ist die Benutzung des Mikroskops zur Diagnostik. Hierbei werden bis zum heutigen Tag sehr häufig die Diagnosen und Ergebnisse aufgrund von qualitativen Beobachtungen durch den Experten gewonnen. In den letzten Jahren hat jedoch im Zuge der rasanten Entwicklung im Bereich der Kameratechnik auch der Bereich der Aufnahme der Bilder mit digitalen Kameras stark zugenommen. Diese digital vorliegenden Bilder haben erhebliche Vorteile gegenüber dem konventionellen Diapositiv.
Die steigende Anzahl der digital erstellten Bilder im Bereich der Mikroskopie weckte aber auch das Bedürfnis diese Bilder weiter zu analysieren. Dazu wurden viele Methoden aus dem Bereich der Bildverarbeitung benutzt, um ‘einfache’ Problemstellungen zu lösen. Bei komplexeren Problemen zeigt sich jedoch schnell, dass die gefundenen Lösungen sehr oft speziell für eine Problemstellung praktikabel sind, aber sich nicht auf andere Probleme anwenden lassen. Hier träumen noch viele von einem System, mit dem man einen hohen Prozentsatz der Kundenprobleme lösen könnte. Methodisch wurden hier ganz unterschiedliche Ansätze gewählt wie z.B. Neuronale Netze, Pattern Recognition, Adaptative Segmentierung und viele mehr.
Ein großes Problem bei der Entwicklung der Methoden war und ist die Diversität der Bilder und Problemstellungen. Für eine bestimmte eingegrenzte Art von Bildern funktioniert eine Methode sehr gut, für eine andere aber sehr schlecht. Dies ist vor allem ein Problem bei der Vergleichbarkeit von Veröffentlichungen in diesem Bereich, da sich die Ergebnisse oft auf unterschiedliches Datenmaterial beziehen oder eine nicht genügend große Anzahl von Bildern benutzt wird. Der Zugriff auf einen einheitlichen Goldstandard ist bis heute nicht einheitlich. Inhaltsverzeichnis:Inhaltsverzeichnis:
Abbildungsverzeichnis3
Glossar6
1.Einleitung8
1.1Aktueller Stand der Forschung9
1.2Manuelle Segmentierung10
1.3Automatische Segmentierung11
1.4Semiautomatische […]

Leseprobe

Inhaltsverzeichnis


Inhaltsverzeichnis

Abbildungsverzeichnis

Glossar

1 Einleitung
1.1 Aktueller Stand der Forschung
1.2 Manuelle Segmentierung
1.3 Automatische Segmentierung
1.4 Semiautomatische Methoden
1.5 Goldstandard
1.6 Modellierung
1.7 Validierung
1.8 Der Analyse- und Segmentierprozess
1.9 Anforderungen an die Werkzeuge
1.10 Auswahl des Segmentierverfahrens
1.11 Contextual Design in der Medizin

2 Beitrag zur Verbesserung auf dem Gebiet der Segmentierung

3 Material und Methoden
3.1 Übersicht
3.2 Durchführung einer Zielgruppenanalyse im Bereich der Mikroskopie
3.3 Durchführung einer Kontextanalyse
3.4 Contextual Design
3.5 Erstellung einer Datenbank für Segementiermethoden
3.6 Design und Implementation einer Bildanalyseproblemdatenbank
3.7 Design und Implementation einer Bildanalyselösungsdatenbank
3.8 Qualitätssicherung der Datenbankeinträge
3.9 Implementierung eines Prototyps – Image Object Describer
3.10 Konzeptvalidierung

4 Ergebnisse
4.1 Übersicht
4.2 Zielgruppenanalyse im Bereich der Mikroskopie
4.3 Contextual Design
4.4 Erstellungen eines Konzeptes für eine User Centered Segmentation
4.5 Erstellung eines Interaktionsprototyps: Image Object Describer
4.6 Aufbau einer Datenbank für Segmentiermethoden
4.7 Erstellungen und Verbesserung eines Goldstandards für die Mikroskopie
4.8 Auswertung der Konzeptvalidierung

5 Diskussion

6 Zusammenfassung

7 Literaturverzeichnis

Anhang

Formblatt für die Zielgruppenanalyse

Fragebogen zur Validierung des Segmentierkonzepts

Abbildungsverzeichnis

Abbildung 1: Darstellung des generellen Konzeptes und Workflows der einzelnen Komponenten

Abbildung 2: Darstellung des generellen Konzeptes und Workflows der einzelnen Komponenten in UML-Notation

Abbildung 3: Zeitliche Abfolge der eingesetzten Methoden

Abbildung 4: Zeigt den allgemeinen Ablauf des Contextual Designs

Abbildung 5 zeigt ein Beispiel für ein Flussmodell

Abbildung 6: Ein Beispiel für die Rollenisolation bei der Arbeit

Abbildung 7: Exemplarisches Ablaufmodell für die Bearbeitung von E-Mails

Abbildung 8: Beispiel eines Arbeitskulturmodells für eine Softwarefirma

Abbildung 9: Die Abbildung zeigt die Arbeitskultur einer benutzerorientierten Organisation

Abbildung 10: Beispiel für ein Walkthrough

Abbildung 11: Übersicht über die Bearbeitung eines Beispielbildes mit Hilfe des Image Object Describers

Abbildung 12: Detailansicht eines exemplarischen Eintrags in der Problemdatenbank

Abbildung 13: Detailansicht eines Eintrags einer Lösung zu einem Bildanalyseproblem

Abbildung 14: Detailansicht eines Eintrags aus der Methodendatenbank

Abbildung 15: Komponenten der Ergebnisse

Abbildung 16: Altersverteilung der Personen in Prozent

Abbildung 17: Prozentuale Geschlechterverteilung

Abbildung 18: Prozentualer Anteil der Benutzer nach Industriezweigen

Abbildung 19: Prozentuale Verteilung der Teilnehmer nach Ländern

Abbildung 20: Anteil der Benutzer, die sichtbares Licht zur Aufnahme der Bilder am Mikroskop benutzen

Abbildung 21: Anteil der Benutzer, die das konfokale Verfahren zur Aufnahme der Bilder am Mikroskop benutzen

Abbildung 22: Anteil der Benutzer, die Phasenkontrast zur Aufnahme der Bilder am Mikroskop benutzen

Abbildung 23: Anteile der Benutzer, die Fluoreszenzverfahren zur Aufnahme der Bilder am Mikroskop benutzen

Abbildung 24: Anteil der Benutzer, die das DIC Verfahren zur Aufnahme der Bilder am Mikroskop benutzen

Abbildung 25: Anteil der Benutzer, die polarisiertes Licht zur Aufnahme der Bilder am Mikroskop benutzen

Abbildung 26: Verteilung des Farbtyps der aufgenommenen Bilder

Abbildung 27: Verteilung der Bildgrößen

Abbildung 28: Verteilung der Dateiformate

Abbildung 29: Anteil der Bilder für die eine Skalierung benutzt wird

Abbildung 30: Verteilung von Mehrkanalaufnahmen

Abbildung 31: Verteilung von Mehrpositionenaufnahmen

Abbildung 32: Verteilung von Z-Stapelaufnahmen

Abbildung 33: Verteilung von Zeitrafferaufnahmen

Abbildung 34: Verteilung des Objektes auf dem Bild im Vergleich zum Hintergrund

Abbildung 35: Verteilung der Anzahl der Objekte in dem Bild

Abbildung 36: Verteilung der Form der Bildobjekte

Abbildung 37: Verteilung der Messparameter, die benutzt werden, um die Bildinhalte zu analysieren

Abbildung 38: Verteilung der Aufgabenstellung bei der Analyse der Bilder

Abbildung 39: Exemplarischer Gesamtprozess in einer biomedizinischen Laborumgebung

Abbildung 40: Das Flussmodell nach der Kontextanalyse

Abbildung 41: Das Flussmodell in der UML Notation

Abbildung 42: Das Ablaufmodell

Abbildung 43: Ablaufmodell in leicht modifizierter UML Notation

Abbildung 44 Arbeitskulturmodell für die Bildanalyse

Abbildung 45: Bilder von typischen Mikroskopiearbeitsplätzen

Abbildung 46: Fotos von realen Arbeitsplätzen, an denen die Benutzer die Bilder weiterverarbeiten und auswerten

Abbildung 47: Modell für einen typischen Mikroskopie Arbeitsplatz

Abbildung 48: Typischer Ultraschalluntersucherarbeitsplatz

Abbildung 49: Modell für einen typischen Ultraschall Arbeitsplatz

Abbildung 50: Modell für die Segmentierung von digitalen Bilddaten

Abbildung 51: Beschreibung der Probleme der Segmentierung nach Kategorien sortiert

Abbildung 52: Beschreibung des Bildanalyseproblems abhängig vom Bildinhalt

Abbildung 53: Kontextbasierte Algorithmenbeschreibung

Abbildung 54: Hilfsmittel für die Interpretationen der Ergebnisse

Abbildung 55: Generelles Konzept zur Verbesserung des Bildanalyseprozesses

Abbildung 56: Darstellung des generellen Konzept zur Verbesserung des Bildanalyseprozesses in UML

Abbildung 57: Screenshot der AxioVision 4.x Applikation

Abbildung 58: Screenshot der VBA- Entwicklungsumgebung

Abbildung 59: Screenshot des Image Object Describers

Abbildung 60: Markieren eines Objektes der Kategorie „Cells“

Abbildung 61: Fertige Markierung mehrerer Objekte

Abbildung 62: Einzeichnen des Hintergrunds

Abbildung 63: Ergebnisansicht der Analyse

Abbildung 64: Ausschnitt aus der Analyse des Bildes mit dem Image Object Describers

Abbildung 65: Reportansicht der Analyse

Abbildung 66: Detailansicht des Reports

Abbildung 67: Report in der AxioVision Umgebung

Abbildung 68: Tabellarische Ansicht der Parameterliste der Methoden

Abbildung 69: Detailansicht der zweiten Seite des Reports

Abbildung 70: Screenshot aus der Website für die Segmentierdatenbank

Abbildung 71: Screenshot aus der Website für die Segmentierdatenbank

Abbildung 72: Darstellung des Konzeptes der Problemdatenbank

Abbildung 73: Tabellarische Ansicht der Einträge für die Problembeschreibungen in der Datenbank

Abbildung 74: Detailansicht einer Problembeschreibung in der Datenbank

Abbildung 75: Darstellung der Lösungen zu einem Problemeintrag in der Datenbank

Abbildung 76: Visuelle Darstellung des Konzeptes der Lösungsdatenbank

Abbildung 77: Übersicht über die Lösungseinträge

Abbildung 78: Detailansicht der Lösung zu einem Bildanalyseproblem

Abbildung 79: Visuelle Darstellung des Konzeptes der Lösungsdatenbank mit verknüpften Methoden

Abbildung 80: Altersverteilung der Personen in Prozent

Abbildung 81: Verteilung der unterschiedlichen Geschlechter der Teilnehmer

Abbildung 82: Verteilung der Erfahrung im Bereich Bildbearbeitung in Jahren

Abbildung 83: Verteilung der Erfahrung im Bereich Programmierung in Jahren

Abbildung 84: Verteilung der Erfahrung im Bereich Bildanalyse in Jahren

Abbildung 85: Verteilung der Bewertung des Image Object Describers zur besseren Problembeschreibung

Abbildung 86: Hat der Image Object Describer geholfen an bestimmte Eigenschaften zu denken?

Abbildung 87: Wertigkeit der Ergebnisse und Beschreibungen des Image Object Describers

Abbildung 88: Hilfe bei der Lösung zukünftiger Bildanalyseprobleme durch den Image Object Describers

Abbildung 89: Verteilung der allgemeinen Bewertung des Image Object Describers

Abbildung 90: Bewertung der Problemdatenbank in Bezug auf die Eintragung von Problemen

Abbildung 91: Hemmschwelle für die Eintragung von einer Problemstellung in die Datenbank

Abbildung 92: Verteilung der allgemeinen Bewertung der Problemdatenbank

Abbildung 93: Verteilung der Bewertung der Lösungsdatenbank in Bezug auf neue Probleme

Abbildung 94: Verteilung der allgemeinen Bewertung der Lösungsdatenbank

Abbildung 95: Hilfe der Methodendatenbank bei der Auswahl einer Segmentiermethode

Abbildung 96: Vorwissen über die Segmentiermethoden

Abbildung 97: Hilfestellung der Methodendatenbank bei zukünftigen Bildanalyseproblemen

Abbildung 98: Verteilung der Bewertung von subjektiven Parametern in der Methodendatenbank

Abbildung 99: Verteilung der allgemeinen Bewertung der Methodendatenbank

Abbildung 100: Bewertung des Zusammenspiels der einzelnen Komponenten des Konzepts

Abbildung 101: Verteilung der Bewertung des Gesamtkonzepts.

Glossar

Abbildung in dieser Leseprobe nicht enthalten

1 Einleitung

In der heutigen medizinischen Bildverarbeitung werden oft Schwerpunkte auf die Bereiche MR, CT, Ultraschall und PET gelegt. Die Mikroskopie wird sehr häufig eher den biologischen, als den medizinischen Fächern zugeteilt. Hierbei wird jedoch häufig übersehen, welche Relevanz die Mikroskopie für die Klinik besitzt. Hier sei nur auf die folgenden Fachbereiche hingewiesen: Pathologie, Klinische Chemie, Mikrobiologie, Immunologie, Virologie, um nur einige zu nennen. Allen gemeinsam ist die Benutzung des Mikroskops zur Diagnostik. Hierbei werden bis zum heutigen Tag sehr häufig die Diagnosen und Ergebnisse aufgrund von qualitativen Beobachtungen durch den Experten gewonnen. In den letzten Jahren hat jedoch im Zuge der rasanten Entwicklung im Bereich der Kameratechnik auch der Bereich der Aufnahme der Bilder mit digitalen Kameras stark zugenommen. Diese digital vorliegenden Bilder haben erhebliche Vorteile gegenüber dem konventionellen Diapositiv.

Die steigende Anzahl der digital erstellten Bilder im Bereich der Mikroskopie weckte aber auch das Bedürfnis diese Bilder weiter zu analysieren. Dazu wurden viele Methoden aus dem Bereich der Bildverarbeitung benutzt, um „einfache“ Problemstellungen zu lösen. Bei komplexeren Problemen zeigt sich jedoch schnell, dass die gefundenen Lösungen sehr oft speziell für eine Problemstellung praktikabel sind, aber sich nicht auf andere Probleme anwenden lassen. Hier träumen noch viele von einem System, mit dem man einen hohen Prozentsatz der Kundenprobleme lösen könnte. Methodisch wurden hier ganz unterschiedliche Ansätze gewählt wie z.B. Neuronale Netze, Pattern Recognition, Adaptative Segmentierung und viele mehr.

Ein großes Problem bei der Entwicklung der Methoden war und ist die Diversität der Bilder und Problemstellungen. Für eine bestimmte eingegrenzte Art von Bildern funktioniert eine Methode sehr gut, für eine andere aber sehr schlecht. Dies ist vor allem ein Problem bei der Vergleichbarkeit von Veröffentlichungen in diesem Bereich, da sich die Ergebnisse oft auf unterschiedliches Datenmaterial beziehen oder eine nicht genügend große Anzahl von Bildern benutzt wird. Der Zugriff auf einen einheitlichen Goldstandard ist bis heute nicht einheitlicht.

1.1 Aktueller Stand der Forschung

Laut Literatur herrscht Konsens darüber, dass der Einsatz von Methoden der Bildverarbeitung in der Medizin eine immens gesteigerte Bedeutung hat cit_bf(12) cit_af ref_bf(Butenuth, M. 2007 ref_num641)ref_afcit_bf(69) cit_af ref_bf(Lehmann, T. M. 2002 ref_num643)ref_afcit_bf(42)cit_af ref_bf(Handels, H. 2007 ref_num722)ref_af cit_bf(47)cit_af ref_bf(Horsch, A. 2006 ref_num723)ref_af.

Bei den Bildverarbeitungssystemen haben viele Mediziner eine passive, kritische Einstellung. Dabei spielt eine große Rolle, dass sie nicht die Einzelheiten der Methodik erfassen können und Vorbehalte gegenüber der Genauigkeit und Fehleranfälligkeit haben cit_bf(69)cit_af ref_bf(Lehmann, T. M. 2002 ref_num643)ref_af.

Bis zum heutigen Zeitpunkt ist es nicht gelungen, für alle Anforderungen an die medizinische Bildverarbeitung eine 100%ige Lösung anzubieten cit_bf(81)cit_af ref_bf(Mortensen E.N. 1998 ref_num378)ref_af cit_bf(136)cit_af ref_bf( Worth, A.J. Makris, N. Patti, M.R. Goodman, J.M. Hoge, E.A. Caviness, V.S., Jr Kennedy, D.N. 1998 ref_num543)ref_af cit_bf(84)cit_af ref_bf(ODonnell, L. 2001 ref_num698)ref_af. Dies hat ihre Ursache in vielen verschiedenen Bereichen wie z.B. schlechte Bildqualität der Ausgangsbilder, hohe Komplexität der Analyse oder hohes Maß an notwendigem Vorwissen. Dennoch wird von einigen immer noch die vollautomatische Auswertung als erstrebenswertes Ziel angesehen. Dies hat den großen Vorteil, dass die Auswertung objektiv und nicht durch interindividuelle Unterschiede beeinflusst werden würde. Damit würde dann auch die Vergleichbarkeit und Qualität der Analysen gesteigert werden.

Das Problem des fehlenden fachspezifischen Vorwissens der Segmentierungswerkzeuge wird zum Teil als eines der fundamentalen Probleme dargestellt cit_bf(84)cit_af ref_bf(ODonnell, L. 2001 ref_num698)ref_af.

In der Bildanalyse ist der Schritt der Segmentierung immer noch ein sehr kritischer Punkt cit_bf(27)cit_af ref_bf(Falcao, A. X. 2000 ref_num501)ref_af cit_bf(137)cit_af ref_bf(Worth, A. J. 1998 ref_num395)ref_af cit_bf(84)cit_af ref_bf(ODonnell, L. 2001 ref_num698)ref_af cit_bf(89)cit_af ref_bf(Pham, D. L. , Xu, C.Y., Prince, J.L. 2000 ref_num724)ref_af cit_bf(25)cit_af ref_bf(Duncan, J.S. 2000 ref_num725)ref_af cit_bf(111)cit_af ref_bf(Suri, Jasjit S. 2002 ref_num726)ref_af cit_bf(3)cit_af ref_bf(Bankman, I.N. 2008 ref_num727)ref_af. Dies wird auch immer noch als das am schwierigsten zu lösende Problem bei der Analyse von Bilddaten angesehen cit_bf(43)cit_af ref_bf(Haralick, R. M. 1985 ref_num531)ref_af. Dabei ist der Schritt der Segmentierung einer der fundamentalsten in der Prozesskette cit_bf(84)cit_af ref_bf(ODonnell, L. 2001 ref_num698)ref_af. Ein großes Problem hierbei ist das notwendige Vorwissen (anatomisch, histologisch, makroskopisch) cit_bf(137)cit_af ref_bf(Worth, A. J. 1998 ref_num395)ref_af. Dabei gilt es, das Objekt möglichst einfach und schnell aus dem Bild zu extrahieren. Dabei wird ein Objekt dadurch charakterisiert, dass die Pixel (Bildpunkte) eine gewisse „Ähnlichkeit“ besitzen. Diese homogenen Regionen werden dann als Segmente bezeichnetcit_bf(Haralick, 1985)cit_af ref_bf(Haralick, R. M. 1985 ref_num531)ref_af. Diese Segmente werden klassifiziert und dann zu Gruppen und Objekten zusammengefasst. Das Ziel ist dabei aus der Realität Objekte zu extrahieren und zu Daten zu transformierencit_bf(Olabarriaga and Smeulders, 2001)cit_af ref_bf(Olabarriaga, S. D. 2001 ref_num170)ref_af.

Weitere Möglichkeiten die im Anschluss an eine Bildsegmentation erfolgen, sind 3D Rekonstruktion und Visualisierung der Objektdaten cit_bf(84)cit_af ref_bf(ODonnell, L. 2001 ref_num698)ref_af.

Die Ähnlichkeit der Pixel kann durch verschiedene charakteristische Eigenschaften bestimmt werden. Am einfachsten erfolgt dies durch lokale Parameter wie z.B. Intensitäts- oder Farbwerte. Dies erreicht man z.B. durch einfache Segmentiermethoden wie Thresholding oder statistische Klassifizierung. Dabei geht ein Großteil der Segmentierverfahren davon aus, dass die zu segmentierenden Objekte zumindest eine der folgenden Eigenschaften besitzt: homogene Grauwerte, eindeutige Grauwertbereichszuordung oder kontinuierliche Kanten cit_bf(127)cit_af ref_bf(von Klinski S, Tolxdorff T. 2000 ref_num540)ref_af. Diese Annahmen werden sehr oft global für das gesamte Bild angenommen. Dies ist auch ein Grund dafür, dass die Methode des Region Growing als eine der am häufigsten benutzten automatischen Segmentiermethode gilt. Probleme ergeben sich aber, da es häufig lokale Variabilitäten in den Bilddatensätzen gibt.

1.2 Manuelle Segmentierung

Allen Segmentiermethoden gemeinsam ist die Frage nach dem möglichen Grad der Automatisierung. Hierbei werden heute, abhängig von der Problemstellung, alle Methoden von manuell bis zu vollautomatisch benutzt.

Die technisch einfachste Methode ist sicherlich die manuelle Segmentierung. Hierbei ist das Segmentiersystem nur ein Hilfsmittel um Objekte zu zeichnen. Oft werden dabei Objektkonturen eingezeichnet. Dies geschieht in den meisten Fällen in einem 2D Bild. Eine Einarbeitung in das Werkzeug ist fast nie notwendig. Dabei hat der Benutzer die volle Kontrolle über das System. Abgesehen von der Einfachheit der Methode ist die manuelle Segmentierung häufig Methode der Wahl bei Bildern mit hohem Rauschen oder sehr geringem Kontrast und schwer zu erkennenden Objektkonturen.

Ein weiterer Vorteil der Methode ist, dass sie keine Parametrisierung benötigt, aber dafür sehr abhängig vom Benutzer ist. Ein weiterer Nachteil ist der sehr hohe Zeitaufwand. Das ist einer der Gründe, warum das Verfahren im täglichen klinischen Betrieb nur selten eingesetzt wird cit_bf(115)cit_af ref_bf( 2007 ref_num677)ref_af. Eine hohe Relevanz hat dies vor allem bei mehrdimensionalen Bildern, wie z.B. MSCT-Scans cit_bf(110)cit_af ref_bf( 2007 ref_num695)ref_af.

In vielen Fällen wird die manuelle Segmentierung auch eingesetzt, um eine automatische Segmentierung zu korrigieren. Das Problem hierbei ist jedoch, dass der Zeitvorteil von der automatischen Methode oft verloren geht cit_bf(84)cit_af ref_bf(ODonnell, L. 2001 ref_num698)ref_af.

Ein großes Problem der Methode ist die Variabilität zwischen den Benutzern. Diese kann bis zu 22% betragen cit_bf(129)cit_af ref_bf(Warfield, S. K. 2000 ref_num506)ref_af.

Ein weiterer sehr interessanter Ansatz ist der von “human-based computation”. Die Idee hierbei ist es, bestimmte Aufgaben an den Mensch zu „outsourcen“ cit_bf(63)cit_af ref_bf(Kosorukoff, A. 2001 ref_num700)ref_af. Dabei werden vor allem die Aufgaben benutzt, bei denen es einen hohen Aufwand bedeuten würde, diese durch Rechenleistung zu lösen, es dem Mensch jedoch sehr leicht fällt dies zu tun.

Eine der ersten Anwendungen im Bereich der Bildverarbeitung war das Labeling von Bildern mit Keywords cit_bf(125)cit_af ref_bf(von Ahn, L. 2004 ref_num701)ref_af. Hier wurden alle Objekte in einem Bild mit Wörtern beschrieben. Dabei geschah dies durch ein Spiel, in dem zwei Spieler ein Bild präsentiert bekamen und möglichst schnell Wörter zu den Bildern aufschreiben sollten. Die übereinstimmenden Wörter wurden dann in die Beschreibung des Bildes aufgenommen. Durch die sehr hohe Zahl an Spielern und die Zeitbegrenzung auf zwei Minuten pro Bild können eine sehr hohe Anzahl von Bildern analysiert werden.

Eine Erweiterung war dann das Einzeichnen von Objekten in diese Bilder cit_bf(126)cit_af ref_bf(von Ahn, L. 2006 ref_num702)ref_af. In dieser Spielumgebung zeichnen dann die beiden Spieler mit der Maus die einzelnen Objekte ein. Anschließend wurden alle jemals eingezeichneten Objekte übereinander gelagert und man erhält die gesuchten Objekte. Dadurch erhält man in kürzester Zeit eine hohe Anzahl an analysierten Bildern, die dann für einen Goldstandard genutzt werden können.

Einen ähnlichen Weg geht das Projekt LabelMe cit_bf(99)cit_af ref_bf(Russell, B. C. 2005 ref_num703)ref_af. Dabei werden Benutzern auf einer Website Bilder gezeigt, in denen sie Objekte einzeichnen und benennen können. Dabei wird jedoch auf das freiwillige Mitarbeiten der Community gehofft. Dies ist eines der Ziele der Open Mind Initiative cit_bf(107)cit_af ref_bf(Singh, P. 2002 ref_num704)ref_af.

1.3 Automatische Segmentierung

Auf der anderen Seite sind vollautomatische Systeme immer noch ein wünschenswertes Ziel der Forschung und einiger Benutzer cit_bf(86)cit_af ref_bf(Olabarriaga, S. D. 2001 ref_num170)ref_af Hierbei wird sehr oft die hohe Zeitersparnis als großer Vorteil genannt cit_bf(137)cit_af ref_bf(Worth, A. J. 1998 ref_num395)ref_af. Weitere Vorteile sind die höhere Genauigkeit und die geringere intra- und interindividuelle Unterschiede. Hier wird aber immer noch diskutiert, ob die intra- und interindividuellen Unterschiede wirklich durch automatische Methoden verringert werden könnencit_bf(Worth et al., 1998a)cit_af ref_bf( Worth, A.J. Makris, N. Patti, M.R. Goodman, J.M. Hoge, E.A. Caviness, V.S., Jr Kennedy, D.N. 1998 ref_num543)ref_afcit_bf(Kennedy et al., 1989)cit_af ref_bf(Kennedy, D.N. Filipek, P.A. Caviness, V.S., Jr. 1989 ref_num546)r.

Ein Problem dieser vollautomatischen Systeme stellt oft die Parametrisierung dar. Ziel sollte es sein, die mindest notwendige Anzahl an Parametern zu benutzen, um die Objekte sicher zu erkennen. Dies funktioniert bei einfachen, gleichbleibenden Problemstellungen häufig sehr gut. Probleme entstehen oft bei nicht vorhersehbaren, pathologischen Änderungen cit_bf(57)cit_af ref_bf(Kang, Y. 2004 ref_num136)ref_af. Ein schlankes System mit wenigen Parametern für ein komplexes System zu erstellen ist jedoch immer noch sehr schwierig. Häufig wird versucht, dem dahingehend entgegenzuwirken, in dem man Vorwissen in das System einbaut. Dies hat jedoch wieder zur Folge, dass die Systeme nur in gewissen Grenzen funktionieren. Die Balance zwischen dem Freiheitsgrad und der Restriktion ist hier das Hauptproblem cit_bf(81)cit_af ref_bf(Mortensen E.N. 1998 ref_num378)ref_af. Auch wird bei erhöhtem Freiheitsgrad das Ausmaß der Subjektivität erhöht cit_bf(57)cit_af ref_bf(Kang, Y. 2004 ref_num136)ref_af.

Eine Auswahl an automatischen Segmentierverfahren:

- Schwellwertverfahren cit_bf(87)cit_af ref_bf(Otsu, N. 1979 ref_num600)ref_af cit_bf(88)cit_af ref_bf(Parker, J. R. 1997 ref_num601)ref_af
- Wasserscheidentransformation
- Canny Operator cit_bf(13)cit_af ref_bf(Canny, J. 1986 ref_num609)ref_af
- Hough Transformation cit_bf(50)cit_af ref_bf(Hough, P. V.C. 1962 ref_num612)ref_af
- Definiens Cognition Network Technology cit_bf(2)cit_af ref_bf(Athelogou M, SchA, Baatz M, Binnig G 2007 ref_num708)ref_af cit_bf(85)cit_af ref_bf(Okamoto Y, Higashiyama H, Inoue H, Kanematsu M, Kinoshita M, Asano S 2007 ref_num710)ref_af

Auch wenn in den letzten Jahren versucht wurde, den Grad der Automatisierung weiter zu erhöhen, muss dennoch der Benutzer immer noch eine relativ hohe Anzahl an Interaktionen leisten, bevor die Bilder analysiert sind cit_bf(33)cit_af ref_bf(Foo, J. L. 2006 ref_num627)ref_af.

1.4Semiautomatische Methoden

Vor allem in den letzten Jahrzehnten wurden eine Reihe neuer Methoden entwickelt, die als semi- oder halbautomatische Segmentiermethoden beschrieben worden sind cit_bf(31)cit_af ref_bf(Fischler, M.A., Tenenbaum, J.M., Wolf, H.C. 1981 ref_num532)ref_af cit_bf(59)cit_af ref_bf(M. Kass 1988 ref_num568)ref_af cit_bf(4)cit_af ref_bf(Barrett, W. A. 1997 ref_num211)ref_af cit_bf(81)cit_af ref_bf(Mortensen E.N. 1998 ref_num378)ref_af cit_bf(137)cit_af ref_bf(Worth, A. J. 1998 ref_num395)ref_af. Diese versuchen die Vorteile der automatischen Unterstützung mit den Stärken der manuellen Segmentierung zu verknüpfen. Aber auch hier stellt sich das Problem der Kontrollierbarkeit der Methode. Viele Benutzer bemängeln die komplexe Bedienung der Tools cit_bf(52)cit_af ref_bf(Hug 2001 ref_num537)ref_af. Dabei wird oft argumentiert, dass die Zeit zur Korrektur der semi-automatischen Segmentierung mehr Zeit in Anspruch nimmt als die manuelle Segmentierung cit_bf(60)cit_af ref_bf(Kennedy, D.N. Filipek, P.A. Caviness, V.S., Jr. 1989 ref_num546)ref_af. Ein weiteres Problem ist die Tatsache, dass der Benutzer nur indirekt das Segmentierergebnis beeinflussen kann cit_bf(64)cit_af ref_bf(Tobias Kunert and 2001 ref_num548)ref_af. Damit ist die manuelle Segmentierung der semiautomatischen Segmentierung in Bezug auf Interaktionszeit häufig im Vorteil. Hier wird versucht, eine weitere Optimierung z.B. durch Verbesserung des Trainings der Algorithmen zu erreichen cit_bf(77)cit_af ref_bf(McInerney, T. 2000 ref_num527)ref_af cit_bf(81)cit_af ref_bf(Mortensen E.N. 1998 ref_num378)ref_af cit_bf(52)cit_af ref_bf(Hug, J. M. 2001 ref_num537)ref_af cit_bf(64)cit_af ref_bf(Tobias Kunert and 2001 ref_num548)ref_af cit_bf(101)cit_af ref_bf(Schindewolf T, Peitgen H-O: 2000 ref_num549)ref_af cit_bf(5)cit_af ref_bf(Michael Beller and 2004 ref_num551)ref_af cit_bf(8)cit_af ref_bf(Blake, 2004 ref_num556)ref_af cit_bf(35)cit_af ref_bf(Freeborough, P. A. 1997 ref_num236)ref_af cit_bf(75)cit_af ref_bf(Martin-Fernandez, M. 2005 ref_num507)ref_af.

Bei den semi-automatischen Segmentiermethoden können zwei grundlegende Verfahren unterschieden werden. Auf der einen Seite zeichnet der Benutzer interaktiv eine Region of interest (ROI) ein (Regionen basiert). Anschließend wird ein automatischer Rechenprozess durchgeführt, bei dem die interaktiv gesetzten Parameter angewendet werden, wie zum Beispiel im Falle des Region Growing. Mit der zweiten Methode werden durch iteratives Zeichnen und Nachbessern der Kontur, nach und nach die gewünschten Konturen ermittelt (Kontur basiert) cit_bf(1)cit_af ref_bf( Adams, R. Bischof, L. 1994 ref_num541)ref_af.

Das gemeinsame Ziel aller semiautomatischen Methoden kann zusammengefasst werden als:

1. Dem Benutzer die maximale Kontrolle über das System zu geben, während er es benutzt. Immer wieder betont wird hier die Echtzeitvorschau während der Interaktion cit_bf(27)cit_af ref_bf(Falcao, A. X. 2000 ref_num501)ref_af.

2. Minimierung der Benutzermitwirkung im Sinne von unnötiger Parametereinstellung. Dies alles sollte dann zu einer Minimierung der Interaktionszeit bei der Segmentierung führen cit_bf(84)cit_af ref_bf(ODonnell, L. 2001 ref_num698)ref_af.

Zu den bedeutendsten semiautomatischen Verfahren gehören sicherlich:

- Live-Wire beziehungsweise Live-Lane cit_bf(26)cit_af ref_bf(Falcao A.X. 1998 ref_num308)ref_af cit_bf(80)cit_af ref_bf(B. S. Morse, W. A. Barrett, J. K. Udupa, and R. P. Burton 1991 ref_num566)ref_af cit_bf(82)cit_af ref_bf(E. N. Mortensen, B. S. Morse, W. A. Barrett, and J. K. Udupa, 1992 ref_num567)ref_af cit_bf(84)cit_af ref_bf(ODonnell, L. 2001 ref_num698)ref_af
- Snake cit_bf(59)cit_af ref_bf(M. Kass, A. Witkin, D. Terzopoulos 1988 ref_num568)ref_af cit_bf(79)cit_af ref_bf(Mishra, A. 2003 ref_num712)ref_af
- Deformable Templates cit_bf(76)cit_af ref_bf(McInerney, T. 1996 ref_num514)ref_af
- Region Growing cit_bf(15)cit_af ref_bf(Chang, Y. L. 1994 ref_num602)ref_af cit_bf(70)cit_af ref_bf(LEVINE, M. D. 1981 ref_num603)ref_af cit_bf(43)cit_af ref_bf(Haralick, R. M. 1985 ref_num531)ref_af cit_bf(68)cit_af ref_bf(Law, T. Y. 2000 ref_num604)ref_af cit_bf(106)cit_af ref_bf(Siebert 1997 ref_num605)ref_af cit_bf(45)cit_af ref_bf(Hojjatoleslami, S. A. 1998 ref_num608)ref_af cit_bf(61)cit_af ref_bf(Kocher, M. 1986 ref_num607)ref_af cit_bf(1)cit_af ref_bf( Adams, R. Bischof, L. 1994 ref_num541)ref_af
- Active Appearance Model cit_bf(10)cit_af ref_bf(Bookstein, F. L. 1989 ref_num611)ref_af

cit_af ref_bf(Bookstein, F. L. 1989 ref_num611)ref_af

Vergleicht man bei den semi-automatischen Segmentiermethoden zum Beispiel die durchschnittliche Zeit zur Segmentierung von Objekten, so ist die „Intelligent Scissors“ Methode ca. 50-100% schneller, bei höherer Genauigkeit cit_bf(81)cit_af ref_bf(Mortensen E.N. 1998 ref_num378)ref_af.

1.5Goldstandard

In der Regel wird bei der Erstellung eines Goldstandards zum Vergleich von Segmentiermethoden immer noch auf die manuelle Segmentierung zurück gegriffen, da das Wissen des Untersuchers als beste Methode verstanden wird cit_bf(140)cit_af ref_bf(Yan, J. 2007 ref_num672)ref_af cit_bf(71)cit_af ref_bf(Liang, L. 2007 ref_num671)ref_af cit_bf(138)cit_af ref_bf(Wu, M. 2006 ref_num670)ref_af cit_bf(123)cit_af ref_bf(van Ginneken, B. 2006 ref_num674)ref_af cit_bf(7)cit_af ref_bf(Bijlsma, W. R. 2006 ref_num668)ref_af cit_bf(93)cit_af ref_bf(Prastawa, M. 2005 ref_num667)ref_af cit_bf(100)cit_af ref_bf(Salman, Y. M. 2005 ref_num673)ref_af cit_bf(137)cit_af ref_bf(Worth, A. J. 1998 ref_num395)ref_af cit_bf(121)cit_af ref_bf(van der Geest, R. J. 1997 ref_num669)ref_af. Als ein weiterer Grund gilt die Benutzerschnittstelle. Diese entscheidet oft darüber, ob der Benutzer das automatische Verfahren im Alltag einsetzt, oder doch manuell segmentiert cit_bf(64)cit_af ref_bf(Tobias Kunert and 2001 ref_num548)ref_af. Auch ist das Wissen des Experten in seiner Domäne häufig sehr schlecht in eine für den Rechner verständliche Form umzusetzen cit_bf(5)cit_af ref_bf(Michael Beller and 2004 ref_num551)ref_af. Um dies zu bewerkstelligen, bedient man sich heute oft der Methode der Modellierung. Dabei ist ein Problem bei der Erstellung der Modelle, dass diese nicht genügend allgemeines Wissen enthalten, sie müssen aber dennoch spezifisch genug sein cit_bf(91)cit_af ref_bf(Pohle, R. 2004 ref_num561)ref_af cit_bf(56)cit_af ref_bf(Jensen, J. A. 1997 ref_num713)ref_af cit_bf(55)cit_af ref_bf(Jensen, J. A. 2000 ref_num714)ref_af.

Es gibt außerdem keine Datenbank, in der die verschiedenen Methoden von einer Gruppe verglichen worden sind cit_bf(83)cit_af ref_bf(Noble, J. A. 2006 ref_num715)ref_af.

Eine weitere, nicht zu beantwortende Frage ist, was denn das richtige Objekt ist. Bei klaren Konturen ist dies eventuell noch zu lösen. Bei schlechten und zum Teil in der biomedizinischen Bildanalyse sehr häufig unvollständigen Konturen ist dies mitunter sehr schwierig bis unmöglich cit_bf(137)cit_af ref_bf(Worth, A. J. 1998 ref_num395)ref_afcit_bf(Noble and Boukerroui, 2006)cit_af ref_bf(Noble, J. A. 2006 ref_num715)ref.

Ein relativ neuer Ansatz ist die Erstellung von Datenbanken mit webbasierter Annotation von Objekten cit_bf(99)cit_af ref_bf(Russell, B. C. 2005 ref_num703)ref_af. Der Vorteil hierbei ist, dass sehr viele Benutzer sehr häufig das gleiche Objekt definieren. Dadurch erhöht sich die Genauigkeit der Daten. Weiterhin werden die annotierten Objekte noch mit Wörtern definiert, was den Kontext der Bilder näher beschreibt.

1.6 Modellierung

Um das Wissen der Anwender auf Softwaresysteme abbilden zu können, wird z.T. versucht, dies anhand von menschlichen Wahrnehmungsstrategien abzuleiten. Diese implizieren dann eine Anforderung an das System cit_bf(105)cit_af ref_bf(Sester, M. 1995 ref_num560)ref_af. So sollte eine Gruppierung von einzelnen Merkmalen zu komplexeren Gruppen erfolgen:

- Eine allgemeine Beschreibung sollte verwendet werden.
- Die Erfassung von wichtigen Informationen sollte zu einer Informationsreduktion führen.
- Es sollten verschiedene Objektinformationen einbezogen werden.
- Selektive Aufmerksamkeit auf wichtige Informationen.

Dabei stellt sich auch die Frage danach, welche Informationen man reduzieren kann, da sie nicht relevant für die Problemlösung sind. Dieser Abstraktionsgrad sollte sich nach der jeweiligen Aufgabenstellung und den zur Verfügung stehenden Merkmalen der genutzten Modelle richten cit_bf(91)cit_af ref_bf(Pohle, R. 2004 ref_num561)ref_af.

Die Modellierung sollte immer spezifisch für eine Aufgabenstellung erfolgen. Das erstellte Modell sollte dabei alle notwendigen Beschreibungen enthalten, aber gleichzeitig auch die Variationsbereite der Datensätze berücksichtigen.

Sowohl bei der semi- als auch bei der vollautomatischen Methode wurde aus diesem Grund versucht, gewisses Vorwissen in die Systeme und Methoden einzubauen (wissensbasierte BV). Dabei ist eine Schwierigkeit, welches Wissen wirklich relevant ist und welche Informationen keine Vorteile bringen cit_bf(127)cit_af ref_bf(von Klinski S, Tolxdorff T. 2000 ref_num540)ref_af. Eine Lösung stellt die Analyse des Bildkontextes dar. Dabei wird eine Beschreibung des Bildes benötigt. Aus dieser Beschreibung kann dann eine geeignete Analysestrategie ausgewählt werden. Diese Methodik ist als modellbasierte BV beschrieben cit_bf(127)cit_af ref_bf(von Klinski S, Tolxdorff T. 2000 ref_num540)ref_af cit_bf(124)cit_af ref_bf(Frank Vogelsang and 1999 ref_num559)ref_af. Diese erfolgt nach folgenden Schritten:

1. Bestimmung des Bildkontextes
2. Auswahl des Referenzmodells
3. Anpassung der Segmentierparameter
4. Abschließend die Segmentierung

Den Problemlösungsansatz erhält man durch Case-based Reasoning. Dabei wird aus zuvor segmentierten Datensätzen die zum Problem ähnliche Lösung gesucht und auf das aktuelle Problem angewendet. Dabei wird versucht, das Bildmaterial genauso zu segmentieren, wie die Referenzbilder. In dem vorgeschlagenen Verfahren werden für die Bestimmung des Bildkontextes folgende Parameter verwendet: Bildmodus (CT, MRT), Organe im Bildmaterial und Darstellungseigenschaften (Kanteneigenschaften).

Dieses Verfahren birgt folgende Nachteile: Die Bestimmung des Bildkontextes bezieht sich nur auf Patientenfälle und ist nicht auf allgemeine Bildanalyseprobleme, wie zum Beispiel die Zellsegmentierung (Mikroskopie), zugeschnitten. Ein Kontext ist jedoch oft domänenspezifisch. Eine Beschreibung, die zwischen den Domänen ausgetauscht werden kann, ist aber häufig schwierig. Eine domänenübergreifende Zusammenarbeit hätte jedoch einen großen Vorteil, der nicht genutzt wird. Lösungen aus ganz unterschiedlichen Bereichen (Mikroskopie, MRT, CT, makroskopische Fotografie,..) werden dadurch nicht ergänzt.

Auch wurde die Methode nur für ein Segmentierverfahren beschrieben (Snake). Gerade hier aber liegt das Problem für den Anwender. Welche Segmentiermethode ist die beste? Auch gehen die subjektiven Eigenschaften der benutzten Werkzeuge nicht mit in die Lösung ein. Die Vorverarbeitungsschritte, um zu dem Ergebnis zu kommen, werden nicht berücksichtigt. Warum wählt ein Benutzer gerade dieses Verfahren? Warum nicht andere? Kennt der Benutzer die anderen Verfahren? Was sind die Vorteile und was die Nachteile der betreffenden Segmentiermethode?

Es wird auch kein Feedbackmechanismus für die Bewertung der Lösungsansätze beschrieben. Ob und wie gut die Anwendung der Segmentierparameter auf das Problembild ist, wird nicht mit einbezogen. Dadurch fehlt der entscheidende Rückkopplungsmechanismus, mit dem das Verfahren optimiert und ständig verbessert werden könnte.

Beispiele für Modellannahmen zur Beschreibung von Objekten:

- Geometrische Relationen
- Lage im Raum
- Winkeltreue
- Paralleltreue
- Abstandstreue
- Geradentreue
- Geometrische Transformation
- Nachbarschafltsrelationen
- Verbundenheitsbeziehungen
- Enthaltenseinbeziehungen
- Färbung / Intensitätstreue

Im Einzelnen werden dabei folgende Parameter zur Modellbeschreibung benutzt:

- Größe der Objekte cit_bf(73)cit_af ref_bf(Mangin, J. F. 1998 ref_num569)ref_af cit_bf(58)cit_af ref_bf(Kapur, T. 1996 ref_num570)ref_af cit_bf(139)cit_af ref_bf(Xu, C. 1997 ref_num571)ref_af cit_bf(130)cit_af ref_bf(Warfield, S. K. 2000 ref_num572)ref_af cit_bf(21)cit_af ref_bf(Cosic, D. 1997 ref_num573)ref_af
- Geschlossene / offene Konturen cit_bf(37)cit_af ref_bf(Ghanei, A. 1998 ref_num574)ref_af cit_bf(133)cit_af ref_bf(Weichert, F. 2003 ref_num576)ref_af cit_bf(4)cit_af ref_bf(Barrett, W. A. 1997 ref_num211)ref_af cit_bf(18)cit_af ref_bf(Chrastek, R. 2002 ref_num577)ref_af
- Gestaltannahme:
- Statische Modelle durch intensive Benutzerinteraktion cit_bf(41)cit_af ref_bf(Hamarneh, G. 2003 ref_num585)ref_af cit_bf(44)cit_af ref_bf(Heinze, P. 2002 ref_num586)ref_af cit_bf(62)cit_af ref_bf(Kohnen, M. 2002 ref_num587)ref_af cit_bf(66)cit_af ref_bf(Lange, T. 2003 ref_num588)ref_af cit_bf(29)cit_af ref_bf(Fenster, S. D. 2000 ref_num590)ref_af
- Anwendung von anatomischen Atlanten cit_bf(23)cit_af ref_bf(Cuisenaire, O. 1996 ref_num591)ref_af cit_bf(30)cit_af ref_bf(Ferrant, M. 1999 ref_num592)ref_af cit_bf(39)cit_af ref_bf(Gindi, G. 1993 ref_num593)ref_af cit_bf(22)cit_af ref_bf(Cuadra, M. B. 2002 ref_num594)ref_af
- Beschreibung der Gestalt über Templates cit_bf(36)cit_af ref_bf(FrB. 2002 ref_num581)ref_af cit_bf(134)cit_af ref_bf(Weichert, F. 2002 ref_num582)ref_af cit_bf(98)cit_af ref_bf(Rue, H. 1998 ref_num584)ref_af cit_bf(94)cit_af ref_bf(Reinhardt, J. M. 2006 ref_num583)ref_af
- Angabe der Variation der Gestaltparameter cit_bf(102)cit_af ref_bf(Schlatholter, T. 2002 ref_num578)ref_af
- Beschreibung in Form einer Gleichung cit_bf(17)cit_af ref_bf(Chrasteck, R. 2003 ref_num579)ref_af
- Verwendung von impliziten Oberflächen cit_bf(113)cit_af ref_bf(Terzopoulos, D. 1991 ref_num580)ref_af
- Annahmen über die Beziehung von Objekten cit_bf(28)cit_af ref_bf(Felkel, P. 1997 ref_num595)ref_af cit_bf(72)cit_af ref_bf(Loncaric, S. 1997 ref_num596)ref_af cit_bf(11)cit_af ref_bf(Brown, M. S. 1998 ref_num597)ref_af cit_bf(34)cit_af ref_bf(Frantz, S. 1999 ref_num598)ref_af cit_bf(104)cit_af ref_bf(SchM. 2003 ref_num599)ref_af

cit_af ref_bf(SchM. 2003 ref_num599)ref_af

1.7 Validierung

Ein weiterer Aspekt ist die Validierung der Segementiermethoden durch den Benutzer oder automatische Testmethoden. Um dies objektivierbar zu machen, benötigt man eine Problem- oder Testdatenbank. Hierbei besteht das Problem, dass die manuell segmentierten Objekte durch Experten oft Unsicherheiten durch inter- und intra-Variabilitäten enthalten cit_bf(92)cit_af ref_bf(Popovic, A. 2007 ref_num646)ref_af. Dies wurde dadurch zu lösen versucht, indem man einen sogenannten „latenten Goldstandard“ benutzt cit_bf(132)cit_af ref_bf(Warfield, S. K. 2002 ref_num647)ref_af cit_bf(141)cit_af ref_bf(Yitzhaky, Y. 2003 ref_num648)ref_af cit_bf(131)cit_af ref_bf(Warfield, S. K. 2004 ref_num125)ref_af. Ein weiterer Ansatz ist es, sich auf eine Referenzdatenbank zu einigen. Dazu gibt es eine Initiative der Working Group on Medical Image Processing (WG MIP) cit_bf(48)cit_af ref_bf(Horsch, A. 2005 ref_num662)ref_af cit_bf(49)cit_af ref_bf(Horsch, A. 2004 ref_num663)ref_af cit_bf(46)cit_af ref_bf(Horsch, A. 2003 ref_num664)ref_af cit_bf(46)cit_af ref_bf(Horsch, A. 2003 ref_num664)ref_af. Das Ziel hierbei ist es, eine medizinische Bilddatenbank zu erstellen, die es ermöglicht, Methoden und Systeme vergleichbar zu machen. Aktuell gibt es schon teilweise Bilddatenbanken, die dem Konzept der EFMI Initiative sehr nahe kommen, dennoch nicht koordiniert kooperieren cit_bf(9)cit_af ref_bf(Blank, R. 2004 ref_num666)ref_af:

- Lung Image Database (LID)
- Digital Database for Screening Mammography (DDSM)
- Mammographic Image Analysis Society (Mini-MIAS)
- ERUDIT PapEnear Tutorial
- Medical Image Reference Center (MEDIREC)
- Simulated Brain Database (SBD)
- Biomedical Informatics Research Network (BIRN)
- LONI Image Database

Diese Testdatenbank sollte eine ausreichend hohe Anzahl an Problemstellungen enthalten. Zum aktuellen Zeitpunkt gibt es nur medizinische Bilddatenbanken, die nicht validiert sind und eine nicht ausreichend hohe Anzahl von Problemen enthalten cit_bf(8)cit_af ref_bf(Blake, 2004 ref_num556)ref_af. Dennoch wurde versucht, Datenbanken zu erstellen, die Ergebnisse der Segmentierung durch Menschen mit den Ergebnissen von automatischen Algorithmen vergleichen cit_bf(74)cit_af ref_bf(Martin, D. 2003 ref_num557)ref_af. Dessen Schwerpunkt liegt jedoch nicht auf medizinische Themen. Ein Problem dieser Datenbank ist, dass nicht das korrekte Ziel bzw. Ergebnis definiert wurde. Sie vergleichen nur die gefundenen Segmente durch Wertung der Kantendetektion.

Bei der Validierung einer Segmentiermethode stellt sich auch das Problem der Definition von „richtig“ segmentierten Objekten. Eine Möglichkeit ist die Definition der Fehlerrate als Quotient aus der Anzahl falsch klassifizierter Pixel zur Anzahl der gesamten Pixel, die nicht segmentiert wurden cit_bf(8)cit_af ref_bf(Blake, 2004 ref_num556)ref_af.

cit_bf(119)cit_af ref_bf(Udupa, J. K. 2006 ref_num645)ref_af cit_bf(118)cit_af ref_bf(Udupa, J. K. 2002 ref_num644)ref_af definieren drei verschiedene Faktoren für die Power einer Segmentiermethode:

- Reproduzierbarkeit bzw. Reliabilität
- Genauigkeit
- Effizienz.

Dabei spielt vor allem die Genauigkeit eine große Rolle für die Validierung. Genauigkeit definiert als der Unterschied zwischen dem Segmentationsergebnis und einer Referenz cit_bf(92)cit_af ref_bf(Popovic, A. 2007 ref_num646)ref_af.

In den letzten Jahren werden auch zunehmend Phantome benutzt cit_bf(143)cit_af ref_bf(Zubal, I. G. 1995 ref_num653)ref_af cit_bf(20)cit_af ref_bf(Collins, D. L. 1998 ref_num652)ref_af. Diese können je nach Einsatzzweck real oder virtuell sein. Diese können für die quantitative Validierung Kalibrierung und Qualitätssicherung benutzt werden cit_bf(142)cit_af ref_bf(Zafer,Iscan 2009 ref_num728)ref_af cit_bf(122)cit_af ref_bf(van der Have, F. 2008 ref_num729)ref_af cit_bf(65)cit_af ref_bf(Mercier. L. 2005 ref_num730)ref_af. Ein Problem hierbei ist jedoch, dass es noch sehr wenige Datenbanken mit Phantomen gibt.

Trotz der Tatsache, dass eine große Anzahl an Methoden zur Validierung der Segmentierung publiziert worden sind, gibt es keinen Konsens darüber, welche standardmäßig benutzt werden sollten cit_bf(92)cit_af ref_bf(Popovic, A. 2007 ref_num646)ref_af. Als Lösungsansatz wird eine domainspezifische Validierung der Segmentationsergebnisse vorgeschlagen cit_bf(119)cit_af ref_bf(Udupa, J. K. 2006 ref_num645)ref_af cit_bf(54)cit_af ref_bf(Jannin, P. 2006 ref_num654)ref_af.

Als eine der wenigen Arbeiten beschäftigt sich cit_bf(84)cit_af ref_bf(ODonnell, L. 2001 ref_num698)ref_af mit der subjektiven Bewertung der Segmentiermethode durch den Benutzer selbst. Bei dieser Arbeit wurde durch den Benutzer die Benutzerfreundlichkeit und Segmentierungsqualität bewertet.

Grundsätzlich können zwei verschiedene Arten von Validierungsmaßstäben benutzt werden: Güte- und Abweichungsmethoden cit_bf(14)cit_af ref_bf(Cardoso, J. S. 2005 ref_num655)ref_af. Dabei ist nur die Abweichungsmethode für die medizinische Domäne von Relevanz. Hier stellen die folgenden Fragen die wichtigste Grundlage:

- Was ist der Unterschied zwischen der gewünschten und der erreichten Segmentierung?
- Welche Auswirkung hat diese Abweichung klinisch?
- Wie robust ist der Algorithmus in Bezug auf anatomische und bildspezifische Schwankungen?

Bei der Abweichungsmetrik wird sehr häufig der DSC (Dice Similarity Coefficient) genannt cit_bf(24)cit_af ref_bf(Dice, L. R. 1945 ref_num656)ref_af. Alternativ dazu gibt es geometrische Parameter wie zum Beispiel den Abstand zwischen den Objekten (volumen- oder kantenorientiert) cit_bf(97)cit_af ref_bf(Romn-Roldn, R. 2001 ref_num657)ref_af cit_bf(40)cit_af ref_bf(Goumeidane, A. B. 2003 ref_num658)ref_af. Weitere Validierungsmaße sind:

- Recevier Operating Characteristics (ROC) cit_bf(67)cit_af ref_bf(Lasko, T. A. 2005 ref_num659)ref_af
- Gini-ROC cit_bf(32)cit_af ref_bf(Flach, P. A. 2003 ref_num660)ref_af
- C- Factor cit_bf(92)cit_af ref_bf(Popovic, A. 2007 ref_num646)ref_af

1.8 Der Analyse- und Segmentierprozess

Betrachtet man nun aber den gesamten Prozess der Bildanalyse, so stellt die Segmentierung einen wichtigen, aber nicht isolierten Schritt dar. Dieser Prozessschritt erfolgt in einer Abfolge von Schritten. Dabei wird in der heutigen Literatur oft die Segmentiermethode isoliert dargestellt cit_bf(78)cit_af ref_bf(Meinzer, H. P. 2000 ref_num538)ref_af. Das Ziel sollte jedoch eine Integration in bestehende Arbeitsabläufe der Benutzer sein. Betrachtet man den Ablauf des Bildanalyseprozesses isoliert, so ergeben sich folgende Probleme cit_bf(91)cit_af ref_bf(Pohle, R. 2004 ref_num561)ref_af:

- Einschätzung der Bildqualität. Hierbei muss abgeschätzt werden, ob bestimmte Vorverarbeitungsschritte notwendig sind und wenn ja, welche und mit welchen Parametern.
- Welche Bildinformation ist am besten zur Lösung der Aufgabenstellung geeignet. Durch Reduktion der Bildinformation sollte eine Reduktion der Komplexität erfolgen. Hierbei sollte auch eine Auswahl der infrage kommenden Methoden erfolgen unter Abwägung der Vor- und Nachteile inklusive der Parametrisierung.
- Evaluierung der Ergebnisse. Entspricht das Ergebnis den Erwartungen? Dabei ist vor allem darauf zu achten, dass ein Feedback auf die Parametrisierung erfolgt.

Ein Blick in die Literatur zeigt, dass sehr viele Lösungsansätze sehr spezifisch für ein Problem sind. Auf der einen Seite befinden sich die zahlreichen Veröffentlichungen zu den Methoden und Verfahren. Das Problem, das hierdurch entsteht, ist, dass das generalisierte Wissen dafür fehlt, warum man wann welche Methode einsetzt. Oft werden die Lösungen nicht von Benutzern selber erstellt, sondern von (medizinischen) Informatikern oder anderen Programmierern. Es fehlt aber eine abstrahierte Beschreibung von Problem und Lösung.

In der Literatur wird bei der Beschreibung der verschiedenen Segmentiermethoden der Schwerpunkt sehr stark auf den technischen Teil und weniger auf den Interaktionsteil gelegt cit_bf(86)cit_af ref_bf(Olabarriaga, S. D. 2001 ref_num170)ref_af. Die Beschreibung der Interaktion mit dem System wird aber als ein sehr wichtiger Schritt zur Verbesserung der Segmentierung angesehen.

cit_bf(86)cit_af ref_bf(Olabarriaga, S. D. 2001 ref_num170)ref_af teilen den Interaktionsprozess in zwei Teile auf. Den rechnerbetonten und den interaktionsbetonten Teil. Im rechnerbetonten Teil werden vor allem Parameter, die vom Benutzer oder System ermittelt werden, angewendet. Im interaktionsbetonten Teil wird das Ergebnis aus dem rechnerbetonten Teil dem Benutzer visualisiert. Dadurch soll es dem Benutzer ermöglicht werden das Ergebnis zu bewerten. Hauptinteraktionsfläche ist hierbei das GUI (Graphical User Interface). Hierbei wird aber nicht detailliert darauf eingegangen, wie das User Interface im Detail aussehen sollte.

Im interaktionsbetonten Teil erfolgt die Bewertung des Ergebnisses durch die folgenden Parameter: subjektive und objektive Genauigkeit, Wiederholbarkeit (intra- und interindividuell) und Effizienz cit_bf(117)cit_af ref_bf(Udupa, J. K. 2000 ref_num625)ref_af. Bei den Typen der Benutzerinteraktionen mit dem GUI werden folgende Punkte unterschieden: Parametereinstellung, Zeichnen von Objekten auf der Bildfläche und Auswahl aus vorgegebenen Optionen.

cit_bf(33)cit_af ref_bf(Foo, J. L. 2006 ref_num627)ref_af unterteilt den Analyseprozess in drei Teile: Initialisierung, Rückkopplung und Evaluierung. Die Initialisierungsphase wird bei fast allen Arten von Segmentiermethoden benutzt. Dazu gehört: Die Eingabe von Parametern, Vorverarbeitung der Bilder und die Komplexitätsabschätzung. Bei der Rückkopplungsphase interagiert der Benutzer direkt mit dem System um die Parameter direkt an das gewünschte Ergebnis anzupassen. Hierzu gehören auch interaktive Korrekturen. In dem dritten und letzten Schritt der Evaluierungsphase, wird das Endergebnis begutachtet und nach der objektiven und subjektiven Zufriedenheit entschieden, wie weiter vorgegangen werden soll.

Der automatische Prozess wird dabei wie folgt beschrieben: Initialisierung, Parametereingabe durch den Benutzer, Analyse durch den Rechner, Anzeigen der Ergebnisse und Validierung durch den Benutzer. Dabei wird in folgende zwei Subgruppen unterteilt:

- Regelbasierte Systeme und lernende Methoden. Bei den regelbasierten Systemen, z.B. automatischer Schwellenwert wird auf a priori Wissen zurückgegriffen. Hierbei ist die Benutzerinteraktion oft sehr gering. Sie beschränkt sich vor allem auf die Validierung der Ergebnisse. Ein großer Nachteil hierbei ist, dass der Algorithmus sehr abhängig von der Qualität der Regeln ist. Häufig ergeben sich dann Probleme bei der Analyse von Bilddaten, die stark im Vergleich zu dem Trainingsdatensatz variieren.
- Bei den lernenden Systemen versucht der Algorithmus sich ständig selber zu optimieren. Hierbei wird sehr oft eine Wahrscheinlichkeit für die Zugehörigkeit von Pixeln, z.B. mit neuronalen Netzen, zu Objekten berechnet. Während der steigenden Anzahl von Analysen wird so der Algorithmus immer besser. Ein Problem hierbei ist, dass eine große Menge an Daten verarbeitet werden muss, um den Algorithmus optimal zu trainieren.

Wenn die automatischen Methoden versagen, wird häufig auf semi-automatische Methoden zurückgegriffen. Hier steigt der Interaktionsaufwand für den Benutzer merklich im Vergleich zu den automatischen Methoden. Die Interaktion ist nicht unterteilt in Teilschritte, sondern ein kontinuierlicher Prozess. Der Benutzer bekommt eine online Vorschau der Auswirkungen seiner Interaktionen. Parameter werden hierbei oft on-the-fly verändert. Dies kann aber unter Umständen den Benutzer auch überfordern, oder zu Fehlern führen. Diese Methode ist auch wesentlich anfälliger für Ermüdungen des Benutzers als der automatische Prozess. Auch sind die inter-individuellen Unterschiede größer.

Ein neuer Ansatz ist die Kombination der Methoden cit_bf(53)cit_af ref_bf(Jackowski, M. 2004 ref_num633)ref_af cit_bf(57)cit_af ref_bf(Kang, Y. 2004 ref_num136)ref_af cit_bf(51)cit_af ref_bf(Hug, J. 1999 ref_num634)ref_af cit_bf(16)cit_af ref_bf(Chen, H. 2003 ref_num635)ref_af. Erst wird versucht, das Bild automatisch zu analysieren, um dem Benutzer dann aber interaktiv mit semi-automatischen Methoden eine Korrektur zu ermöglichen. Dabei ergibt sich aber, dass die Variabilität zwischen den Benutzern sehr hoch ist.

Bei allen Arbeiten wurde immer wieder darauf hingewiesen, dass einer der kritischsten Punkte ist, welche Informationen dem Benutzer angezeigt werden. Dabei sollte ein hoher Wert auf die Kommunikation mit dem Benutzer gelegt werden. Welche Informationen sind sinnvoll und welche sind überflüssig. Das Problem hierbei ist, das Wissen des Benutzers richtig abschätzen zu können. Ein weiterer kritischer Punkt ist die Eingabe von Parametern cit_bf(33)cit_af ref_bf(Foo, J. L. 2006 ref_num627)ref_af. Hierbei sollte die Eingabe des Benutzers prinzipiell als korrekt angesehen werden. Aber das System sollte dem Benutzer Informationen geben, was diese Parameter bedeuten und welche Auswirkungen sie haben. Zusammenfassend lassen sich folgende Punkte, die den Interaktionsprozess entscheidend beeinflussen, beschreiben:

- Erfahrung und Wissensstand der Benutzer (ist adäquates Wissen vorhanden?)
- Komplexität der Daten (Variabilität)
- Menge an a priori Wissen, die vorhanden ist
- Robustheit der Methode (können unvorhersehbare Daten bearbeitet werden?)

Zur Abschätzung wird ein Faktor vorgeschlagen: Datenkomplexität (1-4 Punkte) + Wissensstand des Benutzers (1-4 Punkte) + Künstliche Intelligenz (1-4 Punkte) + Verfügbares a priori Wissen (1-4 Punkte) + Anzunehmendes Level der Benutzerinteraktion (1-4 Punkte). Dabei ergibt sich ein Ranking zur Abschätzung der Höhe der Benutzerinteraktion von 4 bis 12 Punkten.

Bis zum heutigen Tag gibt es keinen klaren Benchmark für die Evaluierung von Segmentierergebnissen. Im Moment ist die Bewertung durch den Experten immer noch der Goldstandard cit_bf(33)cit_af ref_bf(Foo, J. L. 2006 ref_num627)ref_af.

1.9 Anforderungen an die Werkzeuge

Immer wieder wird gefordert, dass die Bildanalysewerkzeuge an das Wissen der Biologen bzw. Mediziner angepasst werden sollten cit_bf(91)cit_af ref_bf(Pohle, R. 2004 ref_num561)ref_af cit_bf(127)cit_af ref_bf(von Klinski S, Tolxdorff T. 2000 ref_num540)ref_af. Sehr stark betont wird hier der Aspekt der Akzeptanz durch den Benutzer. Zentrale Aspekte sind hierbei die Bedienbarkeit, die Transparenz für die Ergebnisfindung und der Interaktionsaufwand.

Häufig liegt das Problem in der Interaktion mit den Werkzeugen und in der Nachvollziehbarkeit der Effekte. Entscheidend dabei ist sehr oft die Parametrisierung. Welche Parameter machen Sinn? Welche Parameter haben welches Ergebnis zur Folge? Hier wird oft vorgeschlagen, einen möglichst sinnvollen Parametersatz vorzugeben und diesen dann interaktiv vom Benutzer anpassen zu lassen cit_bf(86)cit_af ref_bf(Olabarriaga, S. D. 2001 ref_num170)ref_af.

Allgemein kann der Bildanalyseprozess in folgende Schritte aufgeteilt werden:

1. Definition von Aufgabe und Ziel
2. Gewinnung der Bildinformation
3. Sammlung von a priori Informationen
4. Entwicklung von Modellvorstellungen
5. Auswahl des geeigneten Verfahrens
6. Anwendung der Verfahren
7. Analyse und Auswertung der Ergebnisse

1.10 Auswahl des Segmentierverfahrens

Zu Beginn der Bildanalyse steht der Schritt der Informationsgewinnung. Dabei sollten alle zur Problemlösung relevanten Informationen aus den Bildern ausgelesen werden cit_bf(91)cit_af ref_bf(Pohle, R. 2004 ref_num561)ref_af. Dabei können folgende Informationen a priori gewonnen werden. Metainformationen, Informationen über die Qualität des Abbildungsprozesses (SNR, Kontrast, und andere), Informationen über die Abgrenzbarkeit von Objekten (Kanten, Texturen, Grauwertverteilung).

Sind alle Informationen vorhanden, kann damit schon eine Auswahl von in Frage kommenden Segmentierverfahren dargestellt werden. Dabei sollte jedoch stets darauf geachtet werden, dass dies immer unter dem Aspekt der Aufgabenstellung geschieht. Diese Vorauswahl kann dann mit dem vorhandenen Modellwissen kombiniert und damit weiter verbessert werden.

1.11Contextual Design in der Medizin

Contextual Design wurde erstmals von cit_bf(6)cit_af ref_bf(Beyer, H. 1998 ref_num614)ref_af beschrieben. Dabei wird versucht, das Fachwissen der Benutzer über eine methodisch standardisierte Abfolge von Schritten in eine strukturierte Beschreibung zu fassen. Dieses Wissen soll es den Entwicklern ermöglichen, ein optimal auf die Benutzeranforderungen abgestimmtes Produkt zu erstellen. Die essentiellen Schritte dabei sind: Datensammlung, Modellierung und Konsolidierung.

Bisher wurde die Methode des Contextual Design auf dem Gebiet der Medizin in den folgenden Bereichen eingesetzt.

- Erstellung eines Programms für ein Schwestern Informationssystem cit_bf(95)cit_af ref_bf(Ressler, S. T. 2000 ref_num616)ref_af
- Design eines Medikamentensystems für Intensivstationen cit_bf(114)cit_af ref_bf(Thursky, K. A. 2007 ref_num717)ref_af
- Design eines Telekardiologiesystems cit_bf(38)cit_af ref_bf(Gil-Rodriguez, E.P. 2007 ref_num716)ref_af
- Analyse von Dokumentenworkflowprozessen cit_bf(128)cit_af ref_bf(Walls, D. 2007 ref_num719)ref_af
- Methoden für die Analyse von mobilen KH-Informationssystemen cit_bf(108)cit_af ref_bf(SI.,D, 2007 ref_num720)ref_af
- Analyse von kognitiven Artefakten in der Medizin cit_bf(135)cit_af ref_bf(Wilson, S. 2007 ref_num721)ref_af
- Anwendung von Userdesign auf große IT- Systeme cit_bf(90)cit_af ref_bf(Pilemalm, S. 2007 ref_num718)ref_af
- Evaluierung eines Systems zur effektiven Zusammenarbeit von biomedizinischen Forschungseinrichtungen cit_bf(103)cit_af ref_bf(Schleyer, T. K.L. 2005 ref_num617)ref_af
- Design eines klinischen Informationssystems cit_bf(96)cit_af ref_bf(Revere, D. 2001 ref_num618)ref_af
- Erarbeitung der Anforderungen von Ärzten an ein Krankenhausinformationssystem cit_bf(19)cit_af ref_bf(Coble, J. M. 1995 ref_num619)ref_af
- Design von Pflegeinformationssystemen cit_bf(112)cit_af ref_bf(Tang, P. C. 1995 ref_num620)ref_af cit_bf(109)cit_af ref_bf(Spinhof, L. 2006 ref_num622)ref_af
- Erstellung eines medizinischen Entscheidungsystem für PALM Geräte cit_bf(116)cit_af ref_bf(Tolchinsky, A. 2002 ref_num621)ref_af

Aktuell wird nur in einem Artikel die Anwendung einer strukturierten Benutzerbefragung für Radiologen beschrieben cit_bf(120)cit_af ref_bf(Underwood, J. 2000 ref_num623)ref_af. In diesem Artikel wird ein System für die Entscheidungsfindung beschrieben. Es findet sich jedoch kein Hinweis auf die Methode des Contextual Designs. Im Bereich der medizinischen Bildanalyse konnte kein Artikel gefunden werden.

2 Beitrag zur Verbesserung auf dem Gebiet der Segmentierung

Die nachfolgenden Punkte sollen die Konzepte für die Verbesserung der Segmentierung auf dem Gebiet der medizinischen Informatik näher beschreiben.

- Durchführung einer Studie zur Untersuchung des Benutzerverhaltens mit dem Schwerpunkt auf der Segmentierung von Bildern im Analyseprozess von Bilddaten mithilfe der Methode des Contextual Designs. Hierbei soll analysiert werden, wie die Benutzer aktuell Probleme lösen, welche Werkzeuge und Methoden sie benutzen. Wo liegen die Probleme und Schwächen in den Strukturen und Prozessen.

- Konzeptionierung und Erstellung eines Prototyps für eine Referenzbilddatenbank für biomedizinische digitale Bilddatensätze „Referenzbilddatenbank“. Dabei sollen alle Modalitäten eingebunden werden (CT, MRT, PET, Mikroskopie, Makroskopische Bilder usw.). In dieser Datenbank sollen dann zu jedem Bild folgende Daten gespeichert werden:

- Kontakt des Erstellers
- Modalität des Bildes
- Beschreibung der Problemstellung mit Bilddaten und Bildobjektbeschreibung. Dies sollte möglichst domänenunabhängig und modellbasiert geschehen.
- Die Bilddaten
- Benutzter Lösungsansatz (Segmentiermethode) inklusive Parameter
- Subjektive Bewertung der Analyseergebnisse und Probleme
- Konzeptionierung und Erstellung eines Prototyps für eine Datenbank zur Kategorisierung und Beschreibung von verfügbaren Segmentierwerkzeugen und Methoden: „Segmentiermethodendatenbank“. Hierbei sollen die aktuellen und in Zukunft verfügbaren Werkzeuge gesammelt werden. Dies soll in einer strukturierten Form erfolgen. Das hat den Vorteil des schnellen Überblicks über die verfügbaren Methoden im direkten Vergleich. Dabei sollen folgende Parameter schwerpunktmäßig betrachtet werden:
- Vorteile und Nachteile der Methoden
- Notwendige Parameter und Einstellungen
- Bekannte Probleme und Einschränkungen
- Eignung für bestimmte Bildobjekttypen
- Subjektive Benutzerbewertungen
- Verfügbare Software oder Prototypen
- Literaturquellen
- Konzeptionierung und Erstellung eines Prototyps für die Segmentation von Bilddatensätzen „Image Object Describer“. Dieser Prototyp soll anhand von interaktiven und automatischen Parametern dem Benutzer einen Vorschlag für eine optimal zu dem Analyseproblem passende Segmentiermethode erstellen. Die Erstellung der Vorschläge erhält die Daten aus der Segmentiermethodendatenbank. Hat der Benutzer die gewünschte Methode benutzt und seine Bilder analysiert, sollen diese Ergebnisse anschließend in die Referenzbilddatenbank zurückfließen. Somit soll eine Verknüpfung zwischen den Methoden und den Problemstellungen geschaffen werden.
- Validierung der erstellten Prototypen mit Benutzern anhand von realen Bilddatensätzen.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Darstellung des generellen Konzeptes und Workflows der einzelnen Komponenten.

Ein beliebiges Problem aus der Referenzbibliothek wird mit Image Object Describer analysiert. Dadurch erhält der Benutzer eine Beschreibung, die das Analyseproblem objektiver erklärt. Diese Beschreibung beinhaltet auch einen Vorschlag an Segmentiermethoden. Diese Methode, kann nun auf das Problem angewendet werden. Ist das Bild analysiert worden, kann das Ergebnis in der Referenzbilddatenbank gespeichert werden.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2: Darstellung des generellen Konzeptes und Workflows der einzelnen Komponenten in UML-Notation.

In dieser Darstellung ist der Ablauf in vier Spalten unterteilt. Diese Spalten zeigen die Objekte der Interaktion. Der Startpunkt für die Interaktion kann unabhängig voneinander in allen einzelnen Spalten liegen. Dargestellt ist dann der weitere Ablauf. Das Endziel sollte immer ein analysiertes Bild sein.

3 Material und Methoden

3.1 Übersicht

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3: Zeitliche Abfolge der eingesetzten Methoden.

In Abbildung 3 sind die einzelnen eingesetzten Methoden in der Übersicht dargestellt. Zu Beginn wurde eine webgestützte Zielgruppenanalyse mit 67 Personen durchgeführt. Daraufhin folgte eine Kontextanalyse mit Interviews von 12 Personen aus den unterschiedlichsten biomedizinischen Bereichen, die Bildanalyse in Ihrer täglichen Arbeit benutzen. Aus diesen Ergebnissen folgte die Erstellung einer Datenbank für Segmentiermethoden mit einer ausführlichen Beschreibung jeder einzelnen Segmentiermethode. Auf der gleichen Webplattform aufbauend erfolgte die Implementation einer Problemdatenbank mit der Möglichkeit dazu passende Lösungen eintragen zu können. Anschließend wurde mit Hilfe von VBA ein Prototyp designt und implementiert. Dieser Prototyp wurde abschließend mit den Datenbanken zusammen von 13 Personen in einen Interview mit nachfolgenden Fragebogen validiert.

3.2 Durchführung einer Zielgruppenanalyse im Bereich der Mikroskopie

Wer sind denn die typischen Benutzer, die Bildanalyse in der Mikroskopie betreiben? Wie alt sind die Personen, was sind typische Analyseaufgaben? Um diese Fragen zu beantworten, wurde eine Onlineumfrage durchgeführt. Dabei wurde ein Fragebogen zum Selbstausfüllen erstellt.

Dieser Fragebogen (siehe Seite 292H184) gliedert sich in drei Teile:

- Allgemeine Informationen über den Benutzer
- Informationen über die Bildaufnahme
- Informationen über die Bildanalyse

Mit dem ersten Teil sollten allgemeine Informationen über die Benutzer von Bildanalysesystemen erhalten werden. Dabei waren vor allem das Alter, das Geschlecht und der Ausbildungsstand von Interesse. Im zweiten Teil wurden dann sehr speziell auf die Mikroskopie abgestimmte Fragen zur Bildaufnahme gestellt. Wichtig hierbei war es die verschiedenen Aufnahmenmethoden und Verfahren zu erfassen. Weiterhin wurden aber auch Fragen zu dem Bild selbst gestellt, wie etwa die Bildgröße oder die Dimensionalität der Bilddaten. Eine graduelle Unterscheidung wurde aufgrund der Häufigkeit der Benutzung erfragt. Im dritten Teil, der die Bildanalyse untersuchte wurden nun genaue Fragen zu den Inhalten der Bilder gestellt. Wichtig in diesem Teil war auch die Frage, was denn das Ziel der Bildanalyse sei und welche Messparameter von Interesse seien.

Diese Umfrage hatte eine Laufzeit von 4 Monaten. Während dieser 4 Monate konnten alle Benutzer Ihre Stimme abgeben. Um die Anzahl der Teilnehmer zu erhöhen, wurde in den einschlägigen Foren und Mailinglisten dafür Werbung gemacht. Insgesamt haben an der Umfrage 67 Personen teilgenommen. Der Schwerpunkt lag dabei auf dem Bereich der Mikroskopie.

3.3 Durchführung einer Kontextanalyse

Contextual Design ist eine Methode zur Definition von Software und Hardware Systemen auf der Basis von Kundendaten. Dabei werden einzelne Kunden im Detail untersucht, um ein Verständnis für die gesamte Menge der Benutzer zu bekommen. Diese Daten sind dann Entscheidungsgrundlage für das Systemdesign. Es hilft zu erkennen, wie die Kunden arbeiten und dies strukturiert zu kommunizieren.

Durch die Größe von Organisationen wird der Kontakt zwischen Entwicklern und Kunden immer geringer. Entwickler wollen immer das bestmögliche für den Kunden erreichen, wissen aber oft nicht wie. Dazu fehlen Ihnen häufig Informationen über oder von den Kunden. Eine Beteiligung von Kunden am Entwicklungsprozess selbst kann hier aber oft nicht weiter helfen. Häufig erschweren diese sogar die Abläufe. Die Arbeit von Benutzern selber ist jedoch oft wesentlich komplexer als sie selbst beschreiben, da sie zur Vereinfachung neigen.

Contextual Design ermöglicht eine strukturierte Analyse der Arbeitsweise von Personen. Der Schwerpunkt liegt hierbei auf der Sammlung von Daten, die dann als konkrete Anhaltspunkte für Designentscheidungen dienen sollen. Es kann auf der einen Seite dazu dienen bestehende Konzepte neu zu überarbeiten oder Konzepte zu erstellen. Dabei wird ein vorgegebener Ablauf an Schritten durchgegangen. Diese sind ähnlich strukturiert, wie bei einer Zertifikation nach ISO 9000. Ein weiteres Hauptmerkmal des Contextual Designs ist, durch die strukturierte Dokumentation eine einheitliche Kommunikation zwischen Kunden und Entwicklern von Produkten zu schaffen. Der Kunde wünscht häufig eine einfach bedienbare Software, kann aber sehr oft nicht genau verbalisieren, wie diese konkret auszusehen hat. Der Softwareentwickler hat nun das Problem, aus den einzelnen Meinungen ein Produkt zu erstellen, das allen Ansprüchen gerecht wird.

3.3.1 Grundsätze des Contextual Designs

Die vier Prinzipien des Contextual Designs können folgendermaßen eingeteilt werden: Kontext, Partnerschaft, Interpretation, Fokus.

3.3.1.1 Kontext

Der Kontext beschreibt den Arbeitsplatz und die Arbeitsprozesse des Kunden. Wichtig dabei ist es in dem Kontext selbst zu sein und nur diesen zu beschreiben. Es sollte keine Zusammenfassung erfolgen. Es geht hierbei vor allem um das Sammeln von konkreten Daten. Wichtig ist die Erfassung von den dahinter liegenden Strukturen und Denkmodellen. Bestimmte Wörter, die der Kunde sagt, zeigen dies: „Wir machen das immer so.“ Es geht aber darum, wie es der Kunde in seinem ganz speziellen Fall selbst macht“. „Wir bekommen die Berichte immer per E-mail“.

3.3.1.2 Partnerschaft

Das Ziel hierbei ist es, ein Verständnis der Arbeitsprozesse zu erlangen. Die Methode des Interviews ist hierbei oft weniger geeignet, da hier der Schwerpunkt durch den Interviewer gesetzt wird. Um dies zu optimieren, sollte der Interviewer immer nach dem Grund für die Aktion des Kunden fragen: „Warum machen Sie das so?“. Hierbei sollte dies durch eine abwechselnde Beobachtung und Hinterfragung erfolgen. Dies führt dazu, dass der Benutzer sensibilisiert wird für die eigenen Beweggründe für die Aktion: „Warum mache ich das denn so?“. Hierdurch kommt es zu einer partnerschaftlichen Erforschung der Prozesse. Es geht bei diesem Schritt aber nicht um die sture Abarbeitung einer Liste von vorher definierten Fragen.

3.3.1.3 Interpretation

Bei der Interpretation geht es darum zu verstehen, was die Aussagen des Benutzers und die dazu gehörende Aktion des Benutzers bedeuten. Die Ergebnisse der Interpretation führen zu Designentscheidungen. Aus diesen Interpretationen sollten weiterhin auch Designhypothesen erstellt werden. Entscheidend ist nun, dass diese Hypothesen mit dem Kunden ausgetauscht und evaluiert werden, um Missverständnisse zu umgehen. Dadurch kann einer Verzerrung der Daten vorgebeugt werden. Oftmals kann der Benutzer dadurch seine Aussagen weiter verfeinern. Viele Benutzer sind sehr froh über diese Art der Befragung, da Sie vorher noch nie in dieser Art und Weise über Ihre Arbeit berichten konnten.

3.3.1.4 Fokus

Der Fokus beschreibt den Standpunkt, den der Untersucher einnimmt. Er dient dazu, das Gespräch auf ein Themengebiet zu fokussieren. Ein Problem hierbei ist, dass verschiedene Beobachter den Fokus auf verschiedene Dinge legen können. Hierbei ist es dann hilfreich, die Resultate in einer Gruppe nochmals gemeinsam zu interpretieren. Damit kann jeder individuelle Fokus berücksichtigt werden. Die Untersucher lernen damit auch die Schwerpunkte der anderen Untersucher näher kennen. Abbildung 4: Zeigt den allgemeinen Ablauf des Contextual Designs.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 4: Zeigt den allgemeinen Ablauf des Contextual Designs.

Dabei wird nochmals in die zwei Gruppen: Marketing und Engineering eingeteilt. Zu Beginn werden die Anforderungen der Benutzer an das System erforscht. Anschließend ein Redesign Arbeitsmodell erstellt. Danach erfolgt die weitere Bearbeitung in den Bereichen Software, Hardware und Prozess Engineering. Quelle: (6).

3.4 Contextual Design

3.4.1 Schwerpunkte definieren

Bevor man beginnt, sollte man das Problem oder die Fragestellung genau definieren. Was ist die Arbeit, die wir erwarten? Wie ist dieser Arbeitsschritt im gesamten Alltagsablauf integriert? Wer ist dabei involviert? Wer sind die typischen Ansprechpartner? Wer schafft die Arbeit an? Wer liefert die Informationen? Es sollte auch ein Augenmerk auf ähnliche Arbeiten gelegt werden.

3.4.2 Benutzer auswählen

Es sollten ca. 3-4 pro vorher definierte Rollen und in Summe 10 bis 20 Personen untersucht werden. Dabei sollten möglichst unterschiedliche Benutzer interviewt werden. Unterschiede sollten bestehen im sozialem Status, Kulturkreis und der physikalischer Umgebung.

3.4.3 Datenerhebung

Marketinginformationen helfen selten bei Designentscheidungen, da der Schwerpunkt auf den Markt selber gelegt wird und nicht den Prozess der Arbeit definiert. Ein weiterhin genutztes Instrument sind „Kundenvertreter“. Das Problem hierbei ist jedoch, dass diese oftmals nur ihre eigene Meinung und nicht die Meinung der Masse vertreten. Auch die Variante Entwickler zusammen mit Kunden zu bringen, führt häufig dazu, dass es viele Lösungen für viele Aufgaben gibt. Aber das „Ganze“ wird oft übersehen.

Eine typische Sitzung dauert 2-3h. Dabei wird der Benutzer bei seiner Arbeit an seinem Arbeitsplatz beobachtet. Danach folgt ein Interview mit dem Benutzer, in dem nochmals Details besprochen werden. 10 bis 20 Personen sollten einen guten Überblick über die verschiedenen Aspekte geben. Um Verzerrungen durch den Beobachter zu vermeiden, sollten die Ergebnisse noch mal mit dem Kunden besprochen werden. Dadurch kann auch sichergestellt werden, ob der Beobachter alles richtig verstanden hat.

Das erste Problem zu Beginn einer Untersuchung ist es, den Benutzer zu verstehen. Ziel sollte es sein, den täglichen Arbeitsablauf des Benutzers durch das neue System optimal zu unterstützen. Begonnen wird diese Untersuchung mit einem eins zu eins Interview mit dem Benutzer. Diese Untersuchung wird an dem Arbeitsplatz durchgeführt. Dies soll es ermöglichen, dass sich der Benutzer mental in seiner Rolle fühlt. Entscheidend dabei ist, dass dieses Interview während der Arbeit durchgeführt wird. Nach dem Interview erfolgt eine Auswertung der gesammelten Daten. Diese Auswertung sollte optimalerweise durch ein interdisziplinäres Team erfolgen.

Bei der durchgeführten Untersuchung wurden 12 Personen aus den folgenden bio-medizinischen Bereichen interviewt: pharmakologische Immunologie, Zellbiologie, Nuklearmedizin, Radiologie, Kardiologie, Anatomie, Toxikologie und Neuroradiologie. Von den 12 interviewten Personen waren 5 Frauen. Das Alter reichte von 20-40 Jahren. Die Interviews dauerten 1-2 Stunden und fanden an den Arbeitsplätzen der jeweiligen Personen statt.

[...]

Details

Seiten
Erscheinungsform
Originalausgabe
Jahr
2010
ISBN (eBook)
9783836648028
DOI
10.3239/9783836648028
Dateigröße
7.5 MB
Sprache
Deutsch
Institution / Hochschule
Technische Universität München – Medizin, Institut für Medizinische Statistik und Epidemiologie
Erscheinungsdatum
2010 (Juni)
Note
1
Schlagworte
bildverarbeitung bildanalyse segmentierung contextual design user centered
Zurück

Titel: Entwicklung eines benutzerorientierten Segmentiersystems für biomedizinische Bilder
Cookie-Einstellungen