Media Engineering (Fach) / Computergrafik - Grafikpipeline (Lektion)

In dieser Lektion befinden sich 14 Karteikarten

3D Computergrafik 3D Renderpipeline

Diese Lektion wurde von Jojo86 erstellt.

Lektion lernen

Diese Lektion ist leider nicht zum lernen freigegeben.

  • Was sind die Komponenten eines Renderings? Gemoetrie + Texturen + Licht + Kamera = Bild
  • Aus welchen sieben Schritten besteht die 3D Renderpipeline? 3D Modelle Transformation Beleuchtung Projektion, Clipping, Verdeckung, Rasterisierung Texturierung Shading Framebuffer füllen / Antialiasing
  • Welche Arten der Lichtquellen gibt es? Umgebungslicht(AmbientLight) ‐immer vorhanden, auch wenn keine Lichtquellen definiert sind‐durchschnittliche Helligkeit der Szene‐Beispiel: Tageslichtreflexionen Punktlicht (OmniLight) ‐Punktförmige Lichtquellen senden Lichtstrahlen in alle Richtungen‐Bestimmt "Grundstimmung" der Szene‐Beispiel: Sonne Gerichtetes Licht (DirectionalLight) ‐Licht strahlt in eine bestimmte Richtung‐Strahlenintensität gleichmäßig‐Beispiel: Lampe Spotlight ‐definierter Lichtkegel‐Akzentsetzung in einer Szene‐Beispiel: Gerichteter Strahler
  • Was ist das View Frustum? Der Sichtkegel aus dem Blickpunkt (View Point)   •Transformation Weltkoordinaten nach Bildkoordinaten•Perspektivisch•Parallel
  • Welche Anwendungen zur Sichtbarkeit werden innerhalb des View Frustum benutzt? View FrustumCulling& Clipping → Objekte im Frustumbestimmen BackfaceCulling → Abgewandte Seiten entfernen OcclusionCulling → Verdeckte Objekte eliminieren
  • Was ist ist Culling & Clipping? Culling& Clipping ‐Objekte außerhalb View Frustumwerden nicht betrachet(Culling)           ◦BoundingboxTests ‐Objekte die den View Frustumschneiden werden geteilt (Clipping)‐Vgl. „Vektorgrafik“ > Clipping
  • Was ist Backface Culling? BackfaceCulling ‐Für alle Winkel zwischen der Flächennormale und Kameravektor >90 Grad entferne die Rückseite aus der Betrachtung
  • Was ist die Idee der Texturierung? Idee: 2D Grafik auf 3D Flächen anheften (mapping)vgl. Tapeten auf Wände, Geschenkpapier,Aufkleber bei Modellen aus Überraschungseiern Erste Ansätze von Catmull(1974),Blinn& Newell (1976) Verzierung der Objektoberfläche mit Details erhöht Realismus Ähnliche Details als geometrische Modellierung zu erzeugen, würde die Anzahl der zu berechnenden Polygone vervielfachen Texturen erhöhen visuelle Attraktivität und Detailliertheit ohne die Geometrie zu verändern
  • Welche drei Lichtarten in 3D-Szenen als vereinfachtes Modell des natürlichen Lichts gibt es? Ambient: Generelles Licht, welches die gesamte Szene gleichmäßig beleuchtet. Annahme: In der Natur erhält jedes Objekt einen gewissen Anteil Licht Diffus Diffuse Lichtreflexion in alle Richtungen (LambertscheReflexion). Entspricht vollständig matten Flächen in der Natur Spekular: Glanz-oder Spitzlichter. Abhängig vom Lichtquellen und Betrachtungswinkel (PhongReflexion)
  • Was ist Shading? Lokale vs. globale Beleuchtungsmodelle   Lokale Beleuchtungsmodelle simulieren das Verhalten von Licht auf Oberflächen ‐ Helligkeit/Farbe eines Oberflächenpunkts berechnet durch      Blickrichtung, Lichteinfallswinkel, Materialeigenschaften des Objektes und der Lichtquellen   Die bekanntesten lokalen Beleuchtungsmodelle: ‐Lambert-Beleuchtungsmodell (1760)‐Phong-Beleuchtungsmodell (1975)
  • Welche drei Shadingarten /lokale Beleuchtungsmodelle gibt es? Flat-Shading Gouraud-Shading Phong-Shading
  • Was ist Raytracing? SpekulareInteraktion von Licht auf Basis einer (idealen) vollständigen Strahlvervolgung ‐Theoretisch: Jeder Lichtstrahl jeder Lichtquelle und deren Reflexionen auf jeder Oberfläche der 3D Szene ‐Praktisch: Berechnung „rückwärts“ von jedem Pixel der Bildebene Intuitiver Ansatz (Implementierung) Zeitaufwändig, nur begrenzt echtzeitfähig Erweiterungen               ‐Path tracing              ‐Photon mapping
  • Was ist Raiosity? Berechnung diffuser Licht-reflexionenin einer 3D Szene Annahme: alle Oberflächen sind ideal diffuse Reflektoren, d.h. Licht wird in alle Richtungen gleichmäßig abgestrahlt Energieerhaltungssatz ‐Alles Licht, das eine Fläche empfängt und nicht absorbiert, muss sie wieder reflektieren. Im Gegensatz zu Raytracingblickpunktunabhängig Reflektionsberechnungund Verdeckungsberechnungin unabhängigen Schritten Simulation indirekter diffuser Beleuchtung auf einfache Weise (lange Zeit nicht möglich mit Raytracing) Radiosity-> diffuses Licht, Raytracing-> Reflektionen & Transparenz Kombination von Radiositymit Raytracingzu aufwändig Mit der Entwicklung moderner globaler Beleuchtungsverfahren wie Path Tracing und Photon Mapping wurden Raytracingerweitert und ist heute dominierendes verfahren in der HQ Bildsynthese Beide Verfahren nur begrenzt echtzeitfähig
  • Was geschieht beim Framebuffer / Antialiasing? Berechnetes Bild wird auf tatsächliches Pixelraster abgebildet Je nach Modell erfolgt Rasterisierungschrittauch erst am Schluss ggf. Antialising zur Kantenglättung/Artefaktvermeidung   →siehe auch: Vertiefung: Antialiasing