→ Slide 1

Einführung in die Computergrafik und Bildverarbeitung

Dr. Raphael Wimmer Sommersemester 2024

→ Slide 2

Anstelle einer klassischen Vorlesung mit Übung gibt es:

  • einen interaktiven Präsenztermin (Di, 12:15 - 15:45 Uhr, H8)
  • eine Sammlung an Lehrmaterial
  • einen Abhängigkeitsgraph, der zeigt, welche Themen man in welcher Reihenfolge lernen sollte
  • vier Milestones/Studienleistungen (2D-Bitmapgrafik, 2D-Vektorgrafik, 3D-Grafik, Computer Vision), zu denen Sie eine kleine Übungsaufgabe bearbeiten müssen/sollten.
  • eine Klausur (Präsenz), in der Sie am Rechner mehrere Programmieraufgaben bearbeiten
→ Slide 3
  • Anfangs gibt es einige Präsenz-Termine, in denen wir die Grundlagen frontal-interaktiv besprechen
  • Dann kriegen Sie eine Art Lernlandkarte / Abhängigkeitsgraph / Mindmap der Themen des Kurses inkl. Material und Aufgaben. Ca. 70% der Themen sind Kerninhalte. Diese können Sie in ihrer eigenen Geschwindigkeit bearbeiten. Aus den restlichen Themen wählen Sie dann diejenigen, die Sie am meisten interessieren und vertiefen diese.
  • Als Programmiersprache werden wir Python verwenden (zusätzlich: Jupyter Notebooks, OpenGL, GLSL, OpenCV).
  • Während der Präsenztermine schauen wir uns gemeinsam wichtige Themen und Anwendungen an. Das wird dann eher eine interaktive Übung als eine klassische Vorlesung (“Flipped Classroom”). Außerdem nutzen wir den Termin als Ort für Pair-Programming, Sprechstunde für Probleme, und um Feedback zu geben.
→ Slide 4
  • Es gibt einige Milestones zu festen Terminen im Semester, die sie einhalten sollten. Da müssen Sie dann jeweils eine kleine Studienleistung abgeben. Je früher Sie abgeben, und je besser Ihre Lösung, umso mehr Bonuspunkte für die Klausur erhalten Sie.
  • Am Ende des Semesters findet eine Klausur in Präsenz statt. Sie bearbeiten dort primär Programmieraufgaben zu Themen des Kurses. Dabei können Sie natürlich auf allen Code zurückgreifen, den Sie im Laufe des Kurses schon geschrieben haben. Außerdem kommen noch ein paar Theoriefragen dazu. Das Format “Klausur” ist in der Prüfungsordnung vorgegeben. Es dient in diesem Fall auch dazu, sicherzustellen, dass Sie selbst die ganzen Aufgaben während des Semesters bearbeitet haben. Die Klausur wird am Rechner stattfinden, nicht auf Papier. Für die Klausur gibt es 100 Punkte. Eine Notenstufe entspricht 5 Punkten, d.h. ab 50 Punkten bekommen Sie eine 4.0.
  • Bonuspunkte gibt es für:
  • Abgeben der Studienleistungen (max. 20 Punkte insgesamt)
  • Bug Bounty: pro sachlichem Fehler in meinen Materialien 1 Punkt (FCFS)
  • Teilen von guten Quellen (je 1 Punkt, max. 5 Punkte insgesamt)
→ Slide 5

Sie erhalten von mir:

  • nicht: komplette Foliensätze für jeden Termin, aber:
  • Überblicksdokumente
  • einen interaktiven Abhängigkeitsgraphen der Inhalte der Vorlesung
  • Links und Tipps zu Material
  • Foliensätze zu bestimmten Themen
  • Screenshots / Fotos von wichtigen Zeichnungen
→ Slide 6
Aufwendiger Kurs, aber sehr praktisch weswegen es auch Spaß macht und die Zeit die man dafür aufwendet auch schnell verfliegt.
Interessante Vorlesung, die mir neue Themen und Anwendungsmöglichkeiten beigebracht hat. Die Einführungen in die OpenGL und OpenCV waren spannend und mir davor nur vom hören bekannt. Die Studienleistungen ließen sich auch gut bearbeiten. Waren am Anfang etwas überfordernd (da es bei mir kaum/kein Vorwissen gab), aber ließen sich meistens doch ganz gut durcharbeiten.
Sehr interessante Vorlesung, die viel praktisches Wissen mit sich bringt
Sehr interessant, aber man muss am Ball bleiben
Die Studienleistungen waren sehr interessant und anspruchsvoll, haben aber auch Spaß gemacht. Hab mir teilweise etwas schwer getan, auch weil mir die Erfahrung mit Python gefehlt hat. [...] Ansonsten sehr interessante und coole Veranstaltung, bei der man auch viel selber herumprobieren durfte (v.a. bei Studienleistungen) und gut erklärte Beispiele bekommen hat.
→ Slide 7
↓ Slide 8

Klassische frontale Vorlesung zum Einstieg.

Themen heute:

  • Überblick über das Kurskonzept
  • Organisatorisches
  • Advance Organizer / Überblick über die Themen des Kurses

Danach eine Übung mit:

  • Grundlagen Python
  • Grundlagen Jupyter Notebooks
↓ Slide 9
  • Grundlagen Farbräume, Rastergrafik
  • Welche Python-IDE soll ich verwenden?
  • apt, pip, conda, virtualeenv, docker - Environments und Paketmanager für Python
  • Bilder laden und modifizieren
→ Slide 10
  • Nacht schafft Wissen am Freitag, 19.4.24, unter anderem mit Führungen im VR4 (TechBase)
  • Semester-Kickoff der FS[i] am Donnerstag, 18.4.24, Wiese zwischen PT und VG (Beginn 15:00 Uhr)
→ Slide 11

(kommt noch)

→ Slide 12
↓ Slide 13
  • Lauffähige lokale Python-Installation und IDE
  • (optional) lokale JupyterLab-Installation
  • Alle Notebooks in GRIPS bearbeitet
  • Feedback vorbereitet: wo gibt es Probleme, welche Hilfestellung wäre gut?
  • Laptop dabei, um einige der gezeigten Dinge mal selbst auszuprobieren
→ Slide 14
↓ Slide 15

→ Slide 16
  • Welche Python-IDE soll ich verwenden?
  • apt, pip, conda, virtualeenv, docker - Environments und Paketmanager für Python
  • Grundlagen Farbräume, Farbmodelle, Rastergrafik
  • Bilder laden und modifizieren
↓ Slide 17

→ Slide 18
→ Slide 19
→ Slide 20

Es gibt drei verbreitete Möglichkeiten, Python-Module zu installieren:

  • Paketmanagement des Betriebssystems (z.B. apt unter Debian/Ubuntu Linux)
  • pip - Pythons Paketmanager
  • conda - Paketmanagement der Anaconda-Distribution

Um für jede Anwendung separate Module zu installieren: virtual environments

↓ Slide 21
  • Primär bei Linux-Distributionen, z.B. Debian/Ubuntu
  • apt install python3-matplotlib
  • Vorteile: global verfügbar, sicher, vorkompilierte Binaries
  • Nachteile: nicht immer aktuell, nicht alle Python-Pakete verfügbar, immer nur eine Paketversion installierbar
↓ Slide 22
  • Pakete werden aus dem Python Package Index (PyPI) installiert (PyPI enthält quasi alle Pakete)
  • pip3 install matplotlib
  • pip3 install -r requirements.txt: Textdatei mit Paketnamen und ggf. Versionen.
  • Vorteile: global oder (default) lokal installierbar, immer aktuellste Version, quasi alle Pakete verfügbar.
  • Nachteile: nicht zwingend robust/sicher, Kompilierungsschritt bei C-Erweiterungen notwendig
↓ Slide 23
  • Anaconda: Python-Distribution für Scientific Computing (multi-platform)
  • Minimale Distribution: miniconda
  • conda: package manager für Anaconda (Intro)
  • pip und conda können parallel eingesetzt werden (1, 2)
  • Alternative: Mamba
  • Vorteile: sicher, robust, vorkompilierte Binaries, integrierte Unterstützung von virtual environments
  • Nachteile: nicht immer aktuell, wenige Python-Pakete verfügbar, fügt Overhead (Ressourcen, Debugging) hinzu
↓ Slide 24
  • Grundidee: für jedes Projekt eine eigene Python-Installation
  • Funktionsweise: Überschreiben der Pfade zu Binaries, Bibliotheken in der aktuellen Shell
  • Virtualenv im Unterverzeichnis .env anlegen: python3 -m venv .env
  • Virtualenv aktivieren: source .env/bin/activate (deaktivieren durch Beenden der Shell)
  • Viele IDEs unterstützen venv (VS Code, PyCharm)
  • Conda: conda create --name myenv / conda activate myenv
→ Slide 25
  • Recap: Bildfilter, Bilder (live)
  • Praktische Übung: Bildfilter, Punktoperatoren
  • Praktische Übung: Morphologische Operationen, Faltungen
  • Python: mit Kommandozeilenparametern arbeiten
  • Studienleistung 1: ein simpler Bildeditor
↓ Slide 26

↓ Slide 27
  • Überblick: Typische Bildfilter
  • Überblick: Punktoperatoren, Geometrische Operatoren, Lokale Operatoren, Globale Operatoren
  • Faltungen
→ Slide 28

Entwickeln Sie eine Anwendung filtertool, mit der man (destruktiv) Bilder bearbeiten kann. Bilder liegen als RGB- oder Graustufenbild vor und können mit Pillow eingelesen und geschrieben werden. Ansonsten sollen alle Bildoperationen selbst geschrieben werden.

Abgabe: Di, 14. Mai 2024, 23:59 Uhr (5 Bonuspunkte - pro angefangener weiterer Woche 1 Punkt weniger)

→ Slide 29

Verpflichtende Features:

  • Batch-Kommandozeilenbetrieb (python3 filtertool.py --threshold 90 --blur 3 --edges image.jpg)
  • sinnvolle grafische Anzeige des Ergebnisses mit tkinter
  • Standardfilter (selbst implementiert)
    • Threshold
    • Brightness
    • Contrast
    • Blur
    • Sharpen
→ Slide 30

Wahlpflichtfeatures (3 Features):

  • interaktive Auswahl der Filter über GUI
  • Filter nur auf selektierbaren Bereich anwenden
  • Canny Edge Detection
  • Erode/Dilate
  • (eigenes Feature vorschlagen)
→ Slide 31
  • bei Verwendung fremder Code-Beispiele: Quellenangabe im Quelltext
  • bei Verwendung von ChatGPT o.ä: formlose Angabe im Quelltext (Vorsicht: ChatGPT liefert manchmal subtil falsche Lösungen!)
  • keine weiteren (Grafik) Bibliotheken verwenden
  • Abgabe von Quellcode und kurzer Video-Demo (ca. 1 Minute) über GRIPS
→ Slide 32
↓ Slide 33
  • Kommandozeilenprogramme
  • GUIs mit tkinter
  • Besprechung Studienleistung
  • Implementierung von Helligkeit-/Kontrastfiltern
↓ Slide 34

python3 app.py --mode simple -a file.txt

Mehrere Möglichkeiten in Python:

→ Slide 35
↓ Slide 36
  • Grundlagen Vektorgrafik (separater Foliensatz)
  • Vektorgrafik in Python (Notebooks)
  • Support Studienleistung 1
→ Slide 37
↓ Slide 38
  • Warum 259? (ChatGPT, Stack Overflow, Bildkontrast)
  • Bezierkurven (interaktive Demo)
  • (Bresenham-Algorithmus)
  • Studienleistung 2
↓ Slide 39
  • Übungsaufgabe: Kontrastfilter implementieren
  • Lösungen entweder mit ImageEnhance-Modul oder mit einer merkwürdigen Formel
  • Woher kommt die 259?
  • Warum diese Formel?
  • Welche besseren Alternativen gibt es?
→ Slide 40
↓ Slide 41

Entwickeln Sie eine Zeichenanwendung mini-draw.py, mit der man Vektorgrafiken erstellen und bearbeiten kann. Die Funktionsweise soll gängigen Vektorgrafikprogrammen wie z.B. Inkscape ähneln. Die Anwendung soll einen tkinter.Canvas verwenden, in dem über die create_rect()-Methode einzelne Pixel gesetzt werden. Alle weiteren Zeichenoperationen sollen auf dieser Basis implementiert werden. Abgabe: Di, 18.6. 2024 (5 Bonuspunkte - pro angefangener weiterer Woche 1 Punkt weniger)

↓ Slide 42

(Wenn nichts vorgegeben ist, einfach eine sinnvolle Lösung wählen)

  • Zeichnen von geraden Linien mit der linken Maustaste
  • Zeichnen von quadratischen Bezier-Kurven, indem für jede gezeichnete Linie in der Mitte ein Kontrollpunkt gezeichnet wird, der gezogen werden kann
  • Zeichnen von gefüllten Polygonen (selbst implementiert)
  • Alle End-/Eck-/Kontrollpunkte sollen als kleine Rechtecke (z.B. 5×5 px) dargestellt werden und mit der Maus verschoben werden können
  • Mittels der Taste 'x' kann man die End-/Eck-/Kontrollpunkte ein-/ausblenden
  • Mittels der Taste 'c' kann man den Canvas leeren
  • Mit der mittleren Maustaste kann der gesamte Canvas verschoben werden
↓ Slide 43
  • Zoomen mit dem Scrollrad (Liniendicke bleibt konstant 1 px)
  • Zeichnen mit Farben (Auswahldialog von tkinter verwenden)
  • Füllen mit Mustern / Schraffuren
  • Speichern und Laden der Grafik
  • Zeichnen von Rechtecken oder Kreisen mit der rechten Maustaste
  • effizientes Neuzeichnen des Bildschirms nur dort, wo sich etwas verändert hat
  • Antialiasing der Linien
  • (eigenes Feature vorschlagen)
→ Slide 44
↓ Slide 45
  • Linien zeichnen mit und ohne Bresenham
  • Computational Geometry am Beispiel Shoelace Algorithm
  • Signed Distance Functions
↓ Slide 46

↓ Slide 47
  • (algorithmische) Funktion, die ein 2D-/3D-Objekt beschreibt
  • Gibt für einen Punkt/Pixel p die Distanz zur Objektkante zurück:
    • < 0, wenn er im Objekt liegt
    • 0, wenn er auf der Kante des Objekts liegt
    • > 0, wenn er außerhalb des Objekts liegt

      -

      Beispiel Kreis: circle(point, radius) → distancetoorigin(point) - radius

  • Kombination von individuellen SDFs über Boolsche Operationen:
    • Union: min(sdf1, sdf2)
    • Intersection: max(sdf1, sdf2)
    • Difference: max(sdf1, -sdf2)
  • ↓ Slide 48

    Eure Aufgabe jetzt zu zweit:

    • implementiert gemeinsam eine Signed-Distance-Funktion circle(p, radius), die für einen Pixel p im Bild überprüft, ob er im Kreis mit Mittelpunkt (0,0) und Radius r liegt.
    • zeichnet damit den Kreis
    • überlegt, wie man den Kreis in der Mitte des Bildes platzieren könnte und implementiert dies (Tipp: transformiert den zu testenden Punkt)
    • implementiert eine SDF, die einen Smilie mithilfe von circle() und union/difference/intersection zeichnet
    → Slide 49
    ↓ Slide 50
    • Rückblick: Grundlagen 3D-Grafik
    • Eine minimale 3D-Engine
    • OpenGL
      • Entwicklung, Alternativen
      • Immediate Mode vs. Retained Mode
      • Intro PyOpenGL
    • Szenengraphen
    ↓ Slide 51

    ↓ Slide 52
    • Drei Typen von Repräsentationen von 3D-Objekten:
      • Mesh (Echtzeit-3D-Grafik)
      • Voxels (primär aus bildgebenden Verfahren)
      • Parametrische Modellierung (siehe SDF, Raytracing, CAD)
    • Mesh-Rendering
      • Transformation von Vertices im globalen Koordinatensystem (Matrixmultiplikationen)
      • Projektion der Vertices in das 2D-Koordinatensystem des Bildschirms
      • Zeichnen der Polygone (in der Regel: Dreiecke) auf dem Bildschirm inkl. Beleuchtung (Shading), Textur
    ↓ Slide 53
    • Hintergrund:
      • Effiziente 3D-Grafik erfordert komplexe Optimierungen
      • Bibliotheken und Frameworks nehmen uns inzwischen einen Großteil der Arbeit ab
      • APIs und Werkzeuge ändern sich rapide
      • Grundverständnis wichtig: 3D-Koordinatensysteme, Vertices, Meshes
    • Unser Ziel:
      • Nur Python / PIL / Numpy
      • Zeichnen von simplen Drahtgitter-Netzen
      • Virtuelle Kamera
    • gemeinsam im Jupyter-Notebook (3D-Experiments.ipynb)
    ↓ Slide 54
    • Offener, erweiterbarer Standard für 3D-Zeichen-API
    • Standardisiert durch Khronos Group
    • Alternativen / Konkurrenz: DirectX (nur Windows), Metal (nur macos)
    • OpenGL 1.0 (1992): Immediate Mode API
    • OpenGL 2.0 (2004): Shaders
    • OpenGL 3, 4 (ab 2008): Deprecation des Immediate Mode, Implementierung als Shader
    • Nachfolger: Vulkan (seit 2016, viel Hardware-näher als OpenGL)
    • Spin-Offs / Dialekte: WebGL (im Browser), EGL/GL ES (mobile Geräte)
    • Toolkits: GLU, GLUT/FreeGLUT, GLFW (Helferfunktionen)
    • Einbettung in viele Grafikframeworks (u.a. SDL, Qt, Tkinter) möglich
    ↓ Slide 55
    • Immediate Mode: Anwendung ist Eigentümer der Szene und ruft für jedes Frame Zeichenoperationen über API auf
    • Retained Mode: Anwendung übergibt zu zeichnende Objekte und ggf. Verhalten an Grafikframework – dieses rendert dann eigenständig die Szene.
    • Vorteil Immediate Mode: Einfach zu verstehen
    • Vorteil Retained Mode: Deutlich bessere Performance
    ↓ Slide 56
    • Matrixmultiplikation zur Transformation von Modell-/Kamerakoordinaten und für Projektion 3D → 2D
    • OpenGL 1/2: Immediate Mode Rendering, Vertices entweder in CPU- oder GPU-Speicher (DisplayLists, VBO), globaler Matrix-“Stack“
    • OpenGL 3/4: Rendering über Shader (Programme, die parallel in der GPU ausgeführt werden):
      • Vertex Shader: transformiert Vertices (Meshes, Kamera-Transformation, Projektion)
      • Fragment Shader: modifiziert Pixel-Werte (Farbe, Textur, Beleuchtung, Effekte)
      • C-ähnliche Programmiersprache: GL Shader Language (GLSL)
    ↓ Slide 57
    glClear(GL_COLOR_BUFFER_BIT)
    glColor3f(1.0, 1.0, 1.0)
    glLoadIdentity()
    gluLookAt(0.0, 0.0, 5.0, 0.0, 0.0, 0.0, 0.0, 1.0, 0.0)
    glScalef(1.0, 2.0, 1.0)
    glRotatef(45, 0, 1, 0)
    glBegin(GL_QUADS)
    glVertex3f(0.0, 0.0, 0.0)
    glVertex3f(0.0, 1.0, 0.0)
    glVertex3f(0.0, 1.0, 1.0)
    glVertex3f(0.0, 0.0, 1.0)
    glEnd()
    glFlush()
    ↓ Slide 58

    → Jupyter-Notebook simple_cube_immediate_mode.ipynb

    ↓ Slide 59
    → Slide 60
    ↓ Slide 61
    • Rückblick: Signed Distance Functions
    • Fragment Shaders
    • Vertex Shaders
    • Experiemnte in ShaderToy
    • Intro PyOpenGL / Shaders
    • Szenengraphen?
    ↓ Slide 62
    • allgemeine Idee: finde eine Funktion, die eine geometrische Form definiert
    • Parameter: Koordinaten eines Punktes p (x- und y-Wert bei 2D)
    • Rückgabewert: 0, wenn Punkt auf Form, < 0 wenn innerhalb der Form > 0 wenn außerhalb
    • Beispiel Kreis an Position q mit Radius r: f(p) => length(p-q) - r
    • Tolle Eigenschaften:
      • SDFs existieren für viele 2D- und 3D-Formen
      • Affine Transformationen einfach implementierbar
      • Boolesche Operationen auf SDFs anwendbar (z.B. Schnittmenge)
        - Ggf. Umwandlung in Mesh durch Sampling und Marching-Cubes-Algorithmus
    ↓ Slide 63
    • OpenGL Shader Language
    • C-ähnliche Syntax
    • wird kompiliert und auf der GPU ausgeführt
    • Subset der GLSL (in WebGL, mobilen Geräten verwendet): OpenGL ES 3.0 SL (Specification)
    ↓ Slide 64
    ↓ Slide 65
    • werden einmal pro Pixel im Bild aufgerufen, geben Farbwert zurück
    • Eingabeparameter: Bildposition (vec2 fragCoord)
    • Ausgabewert: Pixelfarbe (vec4 fragColor, RGBA)
    • Zeichnen in 2D: Kreis
    • Blur-Filter (nicht Gaussscher Weichzeichner, nicht effizient): https://www.shadertoy.com/view/Xltfzj
      - Halbton-Shader
    ↓ Slide 66
    • werden einmal pro Vertex aufgerufen
    • Eingabeparameter: Vertex-Koordinaten (vec3)
    • Ausgabewert: Vertex-Koordinaten, indem globale Variable glPosition gesetzt wird.
    • nicht direkt von ShaderToy unterstützt
    ↓ Slide 67
    • optional
    • in: einzelenes Grafik-Primitiv
    • out: ein oder mehrere Grafik-Primitive
    ↓ Slide 68
    • Öffnet ein ShaderToy-Beispiel
    • Recherchiert in der GLSL-Dokumentation (s.o.), was die Keywords bedeuten
    • Modifiziert den Code, um zu verstehen, was er macht
    • Fügt Interaktion und/oder Animation hinzu.
    ↓ Slide 69
    ↓ Slide 70

    gemeinsame Analyse von https://github.com/nvalis/DemoTool/

    ↓ Slide 71
    → Slide 72
    ↓ Slide 73
    • Grundkonzepte Raytracing (siehe Notebook)
    • Analyse DemoTool-Implementierung
    • Studienleistung 3: 3D-Grafik
    • Vorbereitung für nächste Woche: OpenCV
    ↓ Slide 74
    → Slide 75
    ↓ Slide 76

    Entwickeln Sie eine Anwendung, die eine 3D-Welt basierend auf Meshes darstellt. Sie können zur Implementierung den OpenGL Immediate Mode oder das DemoTool verwenden.

    Verpflichtende Features

    • Anzeigen einer simplen 3D-Szene mit mindestens drei unterschiedlichen Objekten
    • Bewegen in der Szene mit Maus und Tastatur
    • Objekte haben unterschiedliche Farben

    Wahlpflichtfeatures (3 Features)

    • Animation (z.B. Rotation) mindestens eines Objekts (abschaltbar)
    • Selektion von Objekten mit der Maus möglich (dann z.B. Farbänderung, Animation) (→ raycasting)
    • Laden von Modellen mittels externer Bibliothek, etc.
    • spezielle Effekte (Nebel, etc.)
    • zuschaltbarer Bildfilter (fragment shader), z.B. Weichzeichner
    ↓ Slide 77

    Entwickeln Sie einen Shader in ShaderToy, der eine hübsche Animation erzeugt

    Verpflichtende Features

    • Färbung / Texturierung mittels Shader
    • Animation
    • Hübsch

    Wahlpflichtfeatures: keine

    ↓ Slide 78

    Erweitern Sie das Raytracing-Notebook um eines der folgenden Features:

    Verpflichtende Features

    • Refraktion / Brechung oder
    • Animation (und Speichern als Bildfolge) oder
    • weitere Objekttypen oder
    • ein anderes Material
    ↓ Slide 79
    • bei Verwendung fremder Code-Beispiele oder von LLM-Output: Quellenangabe im Text
    • als Framework PyOpenGL, glfw, glumpy, pyglet oder moderngl verwenden
    • Abgabe von Quellcode und kurzer Video-Demo (ca. 1 Minute) bis Dienstag, 9. Juli 2024, 23:59 Uhr um die volle Punktzahl zu erhalten
    → Slide 80
    ↓ Slide 81
    • siehe Foliensatz
    ↓ Slide 82
    → Slide 83
    ↓ Slide 84
    • Andreas Schmid stellt einige Beispiele für komplexere CV-Ansätze aus unserer Forschungspraxis vor
    • siehe Foliensatz in GRIPS
    → Slide 85
    ↓ Slide 86
    • Zusammenfassung
    • Klausur
    • Studienleistung 4
    • Feedback Studienleistung 2 / 3
    ↓ Slide 87
    ↓ Slide 88
    • Mittwoch, 31.7.2024, 10 - 12 Uhr
    • Raum wird noch bekanntgegeben
    • Jupyter-Notebook mit Aufgaben, die bearbeitet werden müssen
    • Beispielklausur in GRIPS
    ↓ Slide 89
    → Slide 90
    ↓ Slide 91
    • Ihr Ziel ist, einen Drucksensor auf Basis eines Ultraschallgeräts zu entwickeln.
    • Auf dem Schallkopf befindet sich ein verformbares Substrat, das sich verformt, wenn man mit dem Finger darauf drückt.
    • Dadurch verschiebt sich die Position von Objekten im Substrat (z.B. Luftblasen), was im Ultraschallbild sichtbar ist.
    • Entwickeln Sie in einem Jupyter Notebook einen Algorithmus um Konturen in einem Ultraschallbild zu erkennen und ihre Bewegung zu tracken.
    • Abgabe: Mi, 31.7. 2024 (5 Bonuspunkte - pro angefangener weiterer Woche 1 Punkt weniger)
    ↓ Slide 92
    • Datensatz in GRIPS
    • Der Algorithmus soll für alle Bildsequenzen im Datensatz funktionieren. Jede Bildsequenz beinhaltet drei Bilder mit unterschiedlichen Druckstufen.
    • Alle Bilder sind jeweils aus der gleichen Perspektive aufgenommen, d.h. eine Entzerrung kann global für alle Bilder implementiert werden.
    • Der Algorithmus soll immer zwei Bilder als Eingabe erhalten.
    • Er soll eine Liste mit den Positionen einer oder mehrerer Formen im Bild ausgeben und jeweils den Bewegungsvektor in Pixeln, um die sich die Form Objekt bewegt hat.
    • Das Notebook soll ein Bild erzeugen, in dem Formen und Vektoren eingezeichnet sind.
    ↓ Slide 93

    (Wenn nichts vorgegeben ist, einfach eine sinnvolle Lösung wählen)

    • Entzerrung der Bilder mit einer Homographie.
    • Filtern des Bildes, um relevante Konturen gut hervorzuheben
    • Identifikation von Formen oder Konturen im Bild.
    • Finden von korrespondierenden Formen in zwei Bildern mittels ORB o.ä.
    • Ausgabe einer Liste mit den Positionen einer oder mehrerer Formen im Bild und des Bewegungsvektors in Pixeln, um die sich die Form bewegt hat.
    ↓ Slide 94
    • Einzeichnen von Formen und Vektoren ins Bild.
    • Anpassen von Parametern über Slider
    • Dynamisches Verzerren eines Bildes anhand der Verschiebungen im Ultraschallbild
    • (eigenes Feature vorschlagen)