Neuro (Subject) / Vorlesung 7.2 (Lesson)

There are 39 cards in this lesson

Visuelles System

This lesson was created by Amalaswinthaa.

Learn lesson

  • Sehen als konstruktiver Prozess - es wird nicht nur "passiv" das Bild der Retina "abgelesen"; sondern auch aktiv eine Repräsentation der Umwelt konstruiert - Konstruktionsprozess beginnt bereits bei der Verschaltung der Netzhaut (--> bereits in Netzhaut elaborierte Vorverarbeitung von Reizen) - Sensation vs. Perception
  • Die Netzhaut - Inversion der Retina --> Verlust an Lichtenergie geringn Organisation in 5 Zellschichten Aderhaut Pigmentepithelzellen 1. Photorezeptoren (Z = Zapfen, S = Stäbchen) 2. Horizontalzellen 3. Bipolarzellen (IB, SB , FB) 4. amakrine Zellen 5. Ganglienzellen --> Optischer Nerv
  • On-Off Zentrum Ganglienzellen -Zentrum-Umfeld Zellen: center surround cells - On-Zentrum Typ: feuert stark, wenn Zentrum beleuchtet, weniger stark wenn nur kleiner Fleck im Zentrum, fast gar nicht wenn Umgebung beleuchtet -Off-Zentrum: feuert stark wenn Umgebung beleutet, gar nicht wenn Zentrum beleuchtet
  • Typen von Retinaganglienzellen - Magnozellulärer Typ (M-Zellen) x große rezeptive Felder x Input über Bipolarzellen(BPZ) von Stäbchen --> Farbunempfindlich x sensitiv für Bewegung, Kontrast - Parvozellulärer Typ (P-Zellen) x Kleine rezeptive Felder x Input über BPZ von Zapfen --> Farbsensitiv -Kaniozellulärer Typ (K-Zellen) x Blauempfindlich, bewegungsunempfindlich x Projektion ins MIttel- und Zwischenhirn --> teilweise separate Verarbeitungswege bis in den Kortex
  • Nach der Retina - Axone der Ganglienzellen bilden den Sehnerv (Nervus Opticus) der heißt nach Chiasma dann Tractus Opticus - 2/3 der Fasern laufen durch den corpus geniculatum laterale im Thalamus (CGL) --> alle Regionen die Input von Thalamus bekommen, senden auch an Thalamuskerne zurück - 1/3 der Fasern gehen in andere subkortikale Bereiche x Nucleus Suprachiasmatikus: zirkadiane Rhythmik --> diese Infos gehen an Epiphyse x Colliculi superiores (optisches Tectum) --> Steuerung von Sakkaden 
  • Corpus geniculatum laterale (CGN) = lateral geniculate nucleus (LGN) des Thalamus - separate Schichten für M P und K Typ Ganglienzellen - Retinotope Organisation im Thalamus und V1 (=räumliche Anordnung der Retina wird beibehalten im Thalamus und im V1 --> Primär visueller Kortex) - auf Ebene des Thalamus: Zellarten noch aufgesplittet, ebenfalls bis zur Ebene des V1 sind Zelltypen noch aufgespalten
  • Was macht die Zellen im CGN/LGN aus? - CGN Neurone haben Center-surround rezeptive Felder --> wie die retinalen Ganglienzellen - feuert genau so wie die anderen
  • Der primäre visuelle Kortex -extrahiert grundlegenede Info der visuellen Umgebung (Kantenorientierung; Wellenlänge des Lichts) aus retinalem Abbild - basierend darauf extrahieren höhere Verarbeitungsstuden Info über Farbe, Form, Bewegung, etc. - Sichtweise geht auf Hubel und Wiesel zurück: x Einzelzellableitung bei Katzen x hierarchische Sicht des visuellen Systems x einfache Merkmale werden zu komplexeren Merkmalen kombiniert
  • Was macht die Zellen im primären visuellen Kortex (V1) aus? - simple cells - Antwortprofile einfacher Zellen ergeben sich aus der Kombi der Antworten mehrerer LGN-Zellen - Zelle Antwortet auf Kanten mit bestimmter Länge und Orientierung
  • Verschiedene Zellen- - simple cells: kombiniren den Input mehrerer center-surround Zellen  - complex cells: kombinieren den Input mehrerer simple-cells --> Größere rezeptive Felder; manchmal bewegungssensitiv; complex cells müssen komplett Stimuliert werden --> simple cells antworten auch auf Lichtpunkte - hypercomplex cells (außerhalb von V1) kombinieren den input mehrerer complex cells --> sensitiv für Länge und Orientierung --> Je höher in der Hierarchie, desto komplexer werden die Antworteigenschaften simple cells --> complex cells --> hypercomplex cells
  • Räumliche Repräsentation im visuellen Kortex - LGN/CGN und visueller Kortex sind retinotop organisiert --> räumlich beieinander liegende Neurone repräsenteiren angrenzende Bereiche in der Retina - Schädigungen von Bereichen in V1 resultiert in Blindheit für die entsprechende Region (z.B. Hemianopsie, cortical blindness) - Hemianopsie --> eine ganze seite betroffen - Skotom --> kleinteiliger Gesichtsfeldausfall - Quadrantenanopsie --> größerer Teil betroffen
  • Retinotopes Mapping - Retinotope Organisation des visuellen kortex kann auch mit fMRT dargestellt werden --> retinotopic mapping Rotierender Ring = eccentricity mapping Wedge = polar angle mapping
  • Blindsight - Schädigungen des geniculo-striären Pfades beeinträchtigen das bewusste Sehen, andere Aspekte visueller Verarbeitung können allerdings noch intakt sein --> Blindsight Phänomen - Patient DB x V1 teilweise chirurgisch entfernt x im blinden gesichtsfeld: keine bewusste Wahrnehmung von visuellen Reizen x Orientierungs-Bewegungs-Kontrastdiskriminierung trotzdem teilweise erhalten (unbewusst!!!) --> Ursache: Verarbeitung in subkortikalen Arealen (optisches Tectum) und/oder direkte Projektionen von LGN in höhere visuelle Areale - Auffüllen der visuellen Wahrnehmung im geschädigten Teil des visuellen Feldes --> analog zum Blind spot der Retina --> Ausfall kann bis zu einem gewissen Punkt kompensiert werden
  • Nach V1: - Dorsaler Pfad WO nach oben grün Ventraler Pfad WAS nach unten lila
  • V4 und V5/MT -PET Studie - Bunte Bilder vs. Graustufenbilder --> Aktivierung in V4 --> Region wichtig für Farbwahrnehmung - Bewegte vs. statische Punkte --> Aktivierung in V5/MT --> Region wichtig für Wahrnehmung visueller Bewegung - Bewegung eher dorsal, Farbe eher ventrale Aktivierung
  • Antwortprofile in V4-Neuronen im Vgl. zu V1 Neuronen - Stimulus im rezeptiven Feld präsentiert in 4 verschiedenen Farben - Farbe ist Neuron in V1 egal, feuert immer - V4 Neuron: Spezifizierung: feuert max, wenn roter Stimulus im rezeptiven Feld, bei anderen Farben hingegen nicht 
  • Farbwahrnehmung und V4 - Warum brauchen wir ein spezialisiertes Areal für Farbwahrnehmung, Verscheidene Photorezeptoren sind doch schon für Licht unterschiedlicher Wellenlänge sensitiv - Problem: Wellenlänge hängt sowohl von Farbe des Objekts ab als auch von der Lichtquelle (Tageslicht, Dämmerlicht, elektrisches Licht) - in V4 wird die Farbe eines Objektes unter Berücksichtigung der utnerschiedlichen Beleuchtungsbedingungen berechnet (= um Farbe der Objekte unabhängig von der LIchtquelle repräsenteiren zu können braucht man V4 Neurone) - V4 Zellen feuern kontinuierlich auf die gleiche Oberflächenfarbe, auch wenn sich die Lichtquelle ändert (V1 Neurone tun das nicht) - Schädigungen von V4 führen zu kortikaler Farbenblindheit (cerebrale Achromatopsie)  okuläre Achromatopsie (angeborene Störung der Farbwahrnehmung auf Netzhauteben) - obwohl Patienten mit Achromatopsie keine Farben wahrnehmen, reagieren Zapfen auf der Netzhaut und V1 Zellen noch auf LIcht unterschiedlicher Wellenlänge --> sehen = konstruktiver Prozess
  • Bewegungswahrnehmung und V5/MT -Zellen antworten weniger auf Farbe, sondern ca. 90% sensitiv für bestimmte Bewegungsrichtungen, manchmal auch sensitiv für Bewegungsgeschwindigkeit - z.B. Zelle feuert immer, wenn sich Reiz nach links bewegt, bei Bewegungen in andere Richtungen feuert die Zelle nciht -> Richtungssensitiv hinsichtlich der Bewegung bilaterale Schädigung von V5 führt zur Wahrnehmung der Welt als eine Reihe unbewegter Bilder - Patienten mit Akinetopsie können Bewegungen in anderen Sinnesmodalitäten noch wahrnehmen (z.B. taktile oder auditive Bewegung) --> biologische Bewegung (biological motion) wird zumindest teilweise in separaten Modulen verarbeitet
  • Biological Motion - Wahrnehmung biologischer Bewegung ist evolutionär betrachtet evtl. besonders relevant (analog zu z.B. Gesichtswahrnehmung) - Biologische Bewegung kann von zufälliger Bewegung von Leuchtpunkten unterscheiden werden --> Lichtpunktläufer - Bildgebungs und Läsionsstudien legen spezialisierte Mechanismen für biologische Bewegung nahe - Patient AF: Schädigugn im dorsalen visuellen Arealen  x basale Bewegungswahrnehmung stark beeinträchtigt (Bewegungsrichtung in Punktwolken erkennen) x aber Action Recognition (Handlungen) im Lichtpunktläufer nicht beeintrchtigt --> biologische Bewegung evtl. in separaten Arealen verarbeitet 
  • Was kommt nach V1 --> Objekterkennung - visueller Kortex (striär und extrastriär) extrahiert basale visuelle Info (Farbe, Bewegung, Form, Kanten) - damit diese INfo im Verhalten genutzt werden kann, muss sie wiedeurm mit anderen Infor verknüpft werden --> WO ist das Objekt im Raum? WAS ist das überhaupt für ein Objekt?
  • Modell der Objekterkennung 4 Stufen 1. Frühe visuelle Verarbeitung (Farbe, Kanten, etc) --> basale Features 2. Gruppierung visueller Elemente (Gestalt-Prinzipien etc) 3. Abgleich der gruppierten Darstelung mit gespeicherten Repräsentationen 4. Hinzufügen von Bedeutung (semantischer Abruf)
  • Gestaltprinzipien (2. Stufe der Objekterkennung - Prinzip der Nähe - Prinzip der Ähnlichkeit - Prinzip der guten Forstetzung - Prinzip der Geschlossenheit - Prinip des gemeinsamen Schicksals
  • Visuelle Agnosien - Sehen von Teilen aber nicht des ganzen - Störungen der Objekterkennung = Agnosien - Unterkategorien:  x Störungen der Wahrnemung = apperzeptive Agnosien x Störungen des Bedeutungsabrufs = assoziative Agnosien
  • Apperzeption Agnosien - Wahrnehmungsstörung - Frühe Verarbeitungsmechansimen beeinträchtigt - Defizit: kann nicht Objetk als ganzes sehen Interpretation: Unfähig, sensorische Repräsentationen eines visuellen Reizes zu konstruieren  --> Proband kann einfache Formen nicht mehr abmalen
  • Assoziative Agnosie - Störung des Bedeutungsabrufs - Komplexe Reize können reproduziert werden, aber visuelle Repräsentation kann nich tmehr mit LZG abgeglichen werden  Defizit: kann nicht Bedeutung von Objekten verstheen, interpretieren, oder zuordnen - Interpretation: sensorische Repräsentation wird normal hergestellt, aber kann nicht mit bedeutung, Funktion oder Nützlichkeit versehen werden 
  • Integrative Agnosie = Form der apperzeptiven Agnosie, bei der der visuelle Gruppierungsmechanismus (Stufe 2 der Objekterkennung) beeinträchtigt ist - dadurch wird verhindert, dass die abgespeicherte Info zu einem Objekt abgerufen wird, ohne dass Stufe 1 (also nur die Verarbeitung) beeinträchtigt ist - Patient HJA x nicht beeinträchtigt beim Abzeichnen komplexer Bilder und ausm Gedächtnis zeichnen --> Abgleich mit semantischem System nur möglich, wenn der ABruf aus dem Gedächtnis kommt und nicht extern x beeinträchtigt war aber Entscheidung ob Objekt echt oder fake und semantischer Abruf --> Möhre konnte trotzdem beschrieben werden, Reizeigenschaften waren zugänglich, konnten aber nicht zu integrierter Objekt-Wahrnehmung zusammengefügt werden
  • Objektkonstanz - Idee: unterschiedliche Viewpoints eines Objekts werden auf ein endliches Set an Objektrepräsentationen abgebildet - eine Möglichkeit: Abspeichern der Objekte in einer bestimmten Perspektive/Orientierung also  im standard/canonical viewpoint - Objekterkennung erfordert dann mental rotation vom gesehenen in den gespeicherte Orientierung --> view normalizaiton - andere Möglichkeit: Abruf der gespeicherten Repräsentation durrch Abgleich von Merkmalen (4 Beine und ne Platte, das ist n Tisch) Neuropsychologische Test: z.B. verschiedene Flaschenöffner in verschiedenen perspektiven, zuordnen welcher der rotierten Reize dem oben entspricht
  • Patienten und View Normalization --> OOA - manche Patienten mit Schädigungen des rechten Temporallappens können Reize in ungewohnter Orientierung nicht erkennen - andere Patienten können Reize in allen Orientierungen erkennen aber nicht angeben welches die korrekte/normale Orientierung ist - Objekt-Orientierungs-Agnosie --> Hauptachse von Objekten wird separat von anderen Aspekten eines Objekts abgespeichert
  • Neuronale Grundlage der Objektkonstanz - Neuronen im IT-Kortex des Affen (ventraler Pfad) haben sehr große rezeptive Felder und kodieren spezifische Objekteigenschaften - Objekteigenschaften sind für das Feuerverhalten der Zellen wichtiger, als die räumliche Position des Stimulus
  • Gesichtsverarbeitung - Diskriminierungsleistung innerhalb einer Kategorie im Vergleich zu Objekterkennung --> da muss ich unterscheiden zw. verschiedenenen Kategorien z.B. ist das n Tisch oder Schrank - Frage: evolutionär wichtig? evtl einfach nur super schwierige Reize?
  • Das Bruce und Young Modell - verschiedene Gesichtsverarbeitungspfade für bekannte und unbekannte Gesichter - erst gibts halt structural encoding --> basale Reizeigenschaften aus Gesichtern extrahieren dann separate Wege für unbekannt und bekannt und noch separate Wege für z.B. Lippenbewegungen und Emotionsverarbeitung aus Gesichtern
  • Evidenz für das Bruce und Young Modell - Doppelte Dissoziation zwischen der Verarbeitung bekannter und unbekannter Gesichter --> das deutet darauf hin, dass es 2 unterschiedliche Verarbeitungspfade gibt - bei manchen funktioniert der semantische Abruf, aber Name nicht, aber umgekehrt geht das nicht --> deutet darauf hin, dass semantische Verarbeitung Namen vorgeschaltet ist - Doppelte Dissoziation zwischen dem Erkennen bekannter Gesichter und Erkennen von Emotionen, Alter und Geschlecht --> deutet darauf hin, dass zwar bekannte Gesichter dann nicht mehr erkannt werden können, aber trotzdem noch andere Infos aus dem Gesicht extrahiert werden können
  • Prosopagnosie - Gesichtsblindheits = Unfähigkeit, bekannte Gesichter wiederzuerkennen - erworbene Prosopagnosie = Schädigungen von Bereichen des ventralen visuellen Pfades - angeborene Prosopagnosie
  • Haxby Modell - zuerst: visuelle Features 1. Invariante Features x lateral fusiform gyrus (FFA) x Identitätsinformationen aus dem Gesicht 2. Dynamische Features x superioren temporalen sulcus x Emotionen, wohin guckt die Person, Gesichtsausdruck - alles danach: extended Modell --> da arbeiten das visuelle system mit anderen Systemen und Arealen zusammen
  • Fusiform Face Area - Areal im inferioren Temporallappen das auf die Verabreitung von Gesichtern spezialisiert ist - OFA: Occipital Face Area - AFP: anterior face patch
  • Sind Gesichter einfach nur schwierig zu erkennen? Studie mit Brillengestellen und Gesichter Brillengestelle auch für Kontrollprobanden schwierig zu erkennen Patient LH mit Prosopagnosie war bei Gesichtern deutlich schlechter als bei Brillen --> deutet auf separaten Verarbeitungsmechanismus für Gesichter hin
  • Hängt die Verarbeitung von Gesichtern mit Expertenwissen zusammen? - Aktivierung in der FFA --> ist das einfach ne Region für Expertenwissen? - Gesichter vs. verschiedene Objekte --> Keine Aktivierung nur bei Gesichtern - Autoexperten: Gesichter vs. Autos: keine Aktivierung in FFA bei Autos, nur bei Gesichtern --> FFA Region für Gesichter
  • Hollistische vs. konfigurale Verarbeitung 1. Modell: nimmt an, dass Gesichter einfach nur eine andere Objektkategories sind und auf Spektrum holistisch bis konfigural verarbeitet werden wie andere Objekte auch --> ABER Gesichter werden eher konfigural verarbeitet und Wörter eher konfigural Seperate Stores Model: - geht davon aus, dass bestimmte Areale für bestimmte Verarbeitungen spezialisiert sind - aktuelleres Modell
  • Kategoriespezifische Areale -PPA: Parahippocampal Place Area --> räumliche Szenen -FFA: Fusiform Face Area --> Gesichter -EBA: extrastriate body area --> Körperteile -LOC: lateral occipital complex --> Objekte -VWFA: Visual Word Forming Area --> Wörter/Buchstaben