Abschlussprüfung - Sommer 2025
Fachinformatiker für digitale Vernetzung
Dokumentation der betrieblichen Projektarbeit
MYP – Manage Your Printer
Digitalisierung des 3D-Drucker-Reservierungsprozesses durch Etablierung
der cyberphysischen Kommunikation mit relevanten Hardwarekomponenten
Abgabedatum: 5. Juni 2025
Ausbildungsbetrieb
Mercedes-Benz Ag
Daimlerstraße 143
D-12277 Berlin
Prüfungsbewerber
Till Tomczak
Hainbuchenstraße 19
D-16761 Hennigsdorf
Mercedes-Benz
# Inhaltsverzeichnis
[1. Einleitung [2](#_Toc199840791)](#_Toc199840791)
[1.1 Analyse des Projektauftrages
[2](#analyse-des-projektauftrages)](#analyse-des-projektauftrages)
[1.2 Ableitung der Projektziele
[3](#ableitung-der-projektziele)](#ableitung-der-projektziele)
[1.3 Projektabgrenzung [3](#projektabgrenzung)](#projektabgrenzung)
[1.4 Projektumfeld [4](#projektumfeld)](#projektumfeld)
[1.5 Betriebliche Schnittstellen
[4](#betriebliche-schnittstellen)](#betriebliche-schnittstellen)
[1.6 Analyse der IT-sicherheitsrelevante Bedingungen
[5](#analyse-der-it-sicherheitsrelevante-bedingungen)](#analyse-der-it-sicherheitsrelevante-bedingungen)
[1.7 Darstellung der vorhandenen Systemarchitektur
[5](#darstellung-der-vorhandenen-systemarchitektur)](#darstellung-der-vorhandenen-systemarchitektur)
[2. Projektplanung [5](#projektplanung)](#projektplanung)
[2.1 Terminplanung [5](#terminplanung)](#terminplanung)
[Sprint 1 (15.-19. April 2025)
[6](#sprint-1-15.-19.-april-2025)](#sprint-1-15.-19.-april-2025)
[Sprint 2 (22.-26. April 2025)
[6](#sprint-2-22.-26.-april-2025)](#sprint-2-22.-26.-april-2025)
[Sprint 3 (29. April - 3. Mai 2025)
[6](#sprint-3-29.-april---3.-mai-2025)](#sprint-3-29.-april---3.-mai-2025)
[Sprint 4 (6.-10. Mai 2025)
[6](#sprint-4-6.-10.-mai-2025)](#sprint-4-6.-10.-mai-2025)
[Sprint 5 (13.-17. Mai 2025)
[6](#sprint-5-13.-17.-mai-2025)](#sprint-5-13.-17.-mai-2025)
[2.2 Ressourcenplanung [6](#ressourcenplanung)](#ressourcenplanung)
[2.3 Planung der Qualitätssicherung
[7](#planung-der-qualitätssicherung)](#planung-der-qualitätssicherung)
[2.4 Bewertung der heterogenen IT-Landschaft
[8](#bewertung-der-heterogenen-it-landschaft)](#bewertung-der-heterogenen-it-landschaft)
[2.5 Anforderungsgerechte Auswahl der Übertragungssysteme
[8](#anforderungsgerechte-auswahl-der-übertragungssysteme)](#anforderungsgerechte-auswahl-der-übertragungssysteme)
[2.6 Planung der Prozess-/ und Systemschnittstellen
[9](#planung-der-prozess--und-systemschnittstellen)](#planung-der-prozess--und-systemschnittstellen)
[2.7 Planung der IT-Sicherheitsmaßnahmen
[9](#planung-der-it-sicherheitsmaßnahmen)](#planung-der-it-sicherheitsmaßnahmen)
[3. Durchführung und Auftragsbearbeitung
[9](#durchführung-und-auftragsbearbeitung)](#durchführung-und-auftragsbearbeitung)
[3.1 Prozess-Schritte und Vorgehensweise
[10](#prozess-schritte-und-vorgehensweise)](#prozess-schritte-und-vorgehensweise)
[3.1.1 Datenabfrage der Sensoren
[10](#datenabfrage-der-sensoren)](#datenabfrage-der-sensoren)
[3.1.2 Verarbeiten der Daten
[10](#verarbeiten-der-daten)](#verarbeiten-der-daten)
[3.2 Abweichung, Anpassung und Entscheidungen
[11](#abweichung-anpassung-und-entscheidungen)](#abweichung-anpassung-und-entscheidungen)
[3.3 Maßnahmen zur Qualitätskontrolle
[11](#maßnahmen-zur-qualitätskontrolle)](#maßnahmen-zur-qualitätskontrolle)
[3.4 Implementierung, Konfiguration und Inbetriebnahme von
Schnittstellen und unterschiedlicher Prozesse und Systeme
[12](#implementierung-konfiguration-und-inbetriebnahme-von-schnittstellen-und-unterschiedlicher-prozesse-und-systeme)](#implementierung-konfiguration-und-inbetriebnahme-von-schnittstellen-und-unterschiedlicher-prozesse-und-systeme)
[3.5 Konfiguration von Übertragungssystemen und Integration in die
Gesamtinfrastruktur
[12](#konfiguration-von-übertragungssystemen-und-integration-in-die-gesamtinfrastruktur)](#konfiguration-von-übertragungssystemen-und-integration-in-die-gesamtinfrastruktur)
[3.6 Erfüllen der Anforderungen an die Informationssicherheit
[13](#erfüllen-der-anforderungen-an-die-informationssicherheit)](#erfüllen-der-anforderungen-an-die-informationssicherheit)
[4. Projektabschluss [13](#projektabschluss)](#projektabschluss)
[4.1 Soll-Ist-Vergleich (Abweichung, Anpassungen)
[13](#soll-ist-vergleich-abweichung-anpassungen)](#soll-ist-vergleich-abweichung-anpassungen)
[4.2 Fazit [14](#fazit)](#fazit)
[4.3 Optimierungsmöglichkeiten
[14](#optimierungsmöglichkeiten)](#optimierungsmöglichkeiten)
[4.4 Abnahme [15](#abnahme)](#abnahme)
# Anlagen
## Netzwerkdiagramme und Systemarchitektur
(Inklusive Zenmap-Visualisierung der DNS-Problematik)
## API-Dokumentation
## Benutzerhandbuch
## Testprotokolle
## Screenshots der Benutzeroberfläche
## Konfigurationsdateien und Deployment-Skripte
# 1. Einleitung
## 1.1 Analyse des Projektauftrages
Die Technische Berufsausbildungsstätte (TBA) der Mercedes-Benz AG am
Standort Berlin verfügt über sechs 3D-Drucker verschiedener Hersteller –
Prusa, Anycubic. B-Ware im Vergleich zu 3D-Druckern von Kostenstellen
höherer Priorität, aber für unsere Zwecke vollkommen ausreichend. Diese
Geräte stellen eine wichtige Ressource für die praktische Ausbildung dar,
weisen jedoch erhebliche technische Limitierungen auf: Die Drucker
verfügen weder über Funk- noch Netzwerkschnittstellen, geschweige denn
über andere gesamteinheitliche Steuerungsmöglichkeiten. Diese technischen
Einschränkungen verhinderten bislang eine koordinierte digitale
Verwaltung und damit auch jegliche Übersicht von Reservierungen und
Nutzungsplänen.
Die Technische Berufsausbildungsstätte (TBA) am Standort Berlin verfügt über sechs 3D-Drucker verschiedener Hersteller (Prusa, Anycubic; B-Ware im Vergleich zu 3D-Druckern von Kostenstellen höherer Prioriät sozusagen). Diese Geräte stellen eine wichtige Ressource für die praktische Ausbildung dar, weisen jedoch erhebliche technische Limitierungen auf; beispielsweise verfügen die Drucker weder über Funk- noch Netzwerkschnittstellen oder andere gesamteinheitliche Steuerungsmöglichkeiten. Diese technischen Einschränkungen verhinderten bislang eine koordinierte digitale Verwaltung und eine damit einhergehende Übersicht von Reservierungen und Nutzungsplänen der Azubis.
Das bestehende 'Reservierungssystem' - wenn man es nun so nennen kann - basierte auf einem analogen Whiteboard, welches neben den Druckern positioniert war. Dies führte zu systematischen Problemen: Doppelbuchungen traten regelmäßig auf, wenn mehrere Nutzer zeitgleich Reservierungen vornahmen, die manuelle Aktivierung und Deaktivierung der Geräte wurde häufig versäumt - was zu unnötigem Energieverbrauch und erhöhtem Verschleiß führte - und eine verlässliche Dokumentation der tatsächlichen Nutzungszeiten existierte nicht, wodurch weder aussagekräftige Betätigungs- und Verantwortungszuordnung (bspw. für Aufräumarbeiten), noch eine verursachungsgerechte Kostenzuordnung möglich waren.
Ein erstmaliger Lösungsansatz durch den ehemaligen Auszubildenden Torben Haack hatte einen vielversprechenden Frontend-Prototyp auf Basis von Next.js hervorgebracht. Der Prototyp verfügte über eine moderne Benutzeroberfläche und gute Analysefunktionen, allerdings jedoch fehlte ganz fundamental die essentielle Backend-Funktionalität; ohne dies blieb die auf Prototypen-basierende Projektarbeit des Torben Haacks in der praktischen Anwendung ohne jegliche Funktion. Nach erfolgter IHK-Genehmigung meines Projektantrags entdeckte ich diesen ungenutzten Prototyp und erkannte das Potenzial, ihn als Basis für meine Projektarbeit zu nutzen. Die Möglichkeit, mehrere Aspekte meiner Fachrichtung einzubringen, weckte meine intrinsische Motivation – im Gegensatz zu anderen verfügbaren Projektoptionen, die eher pflichtgemäßen Charakter hatten.
## 1.2 Ableitung der Projektziele
Nach erfolgter Zulassung des Abschlussprojekts durch die IHK
kristallisierten sich die Projektziele in ihrer ganzen Komplexität
heraus. Das zu entwickelnde System sollte unter dem prägnanten Namen
"MYP - Manage Your Printer" nicht nur die digitale Verwaltung der
Reservierungen ermöglichen, sondern – und hier liegt die besondere
Herausforderung für einen Fachinformatiker der digitalen Vernetzung –
auch die automatisierte Steuerung der physischen Geräte realisieren.
Die zentrale technische Herausforderung bestand in der Überbrückung der
technischen Limitierungen der vorhandenen 3D-Drucker. Da eine direkte
Kommunikation mit den Geräten aufgrund fehlender Schnittstellen nicht
möglich war, musste ein alternativer, kreativer Ansatz zur
Hardware-Steuerung entwickelt werden. Gleichzeitig waren die strengen
unternehmensinternen Sicherheitsrichtlinien zu berücksichtigen, die
keine direkten, geschweige denn permanenten Internetverbindungen in der
Produktionsumgebung gestatten – eine Anforderung, die das Projekt
zusätzlich verkomplizierte.
Ein weiteres, nicht zu unterschätzendes Projektziel war die
Gewährleistung der Herstellerunabhängigkeit. Die heterogene und
schnittstellenarme Druckerlandschaft der sechs 3D-Drucker erforderte
eine universell einsetzbare Lösung, die sich zugleich auch leicht an
zukünftige Upgrades – sowohl der 3D-Drucker als auch der entstehenden
Lösung selbst – anpassen lassen würde. Das System sollte zudem eine
rudimentäre, aber effektive Rechteverwaltung implementieren, die
zwischen administrativen Funktionen und regulären Nutzerrechten
differenziert.
## 1.3 Projektabgrenzung
Der Projektumfang wurde – durchaus pragmatisch, möchte man meinen – auf die praktische
Umsetzung einer funktionsfähigen Lösung fokussiert. Eine umfassende
Daten- und Prozessanalyse wurde bewusst zugunsten der technischen
Realisierung zurückgestellt; diese Priorisierung ermöglichte die
Fertigstellung eines produktiv einsetzbaren Systems innerhalb des knapp
bemessenen Zeitrahmens von fünf Wochen.
Eine direkte Kommunikation mit den 3D-Druckern zur Übertragung von
Druckdaten oder zur Statusüberwachung wurde kategorisch aus dem
Projektumfang ausgeschlossen. Die fehlenden technischen Schnittstellen
der vorhandenen Geräte hätten umfangreiche Hardware-Modifikationen
erfordert, die weder zeitlich noch wirtschaftlich vertretbar gewesen
wären – ganz zu schweigen von den Garantieverlusten, die solche
Eingriffe unweigerlich nach sich gezogen hätten.
Die Integration in das unternehmensweite Intranet war ursprünglich fest
eingeplant – ein Vorhaben, das sich als verhängnisvoller Trugschluss
erweisen sollte. Zur Projektmitte hatte ich die bereits genehmigten
SSL-Zertifikate des Haack'schen Prototyps durch einen unglücklichen
Neuinstallationsprozess unwiederbringlich gelöscht; ein Moment des
Schreckens, der die gesamte Projektplanung ins Wanken brachte. Immerhin
war ich so weit gekommen, dass ich vom Frontend aus den GitHub
OAuth-Zertifizierungsmechanismus ansteuern konnte – doch eine uns im
E-Mail-Verkehr zuvor mitgeteilte IP-Adresse war aus irgendeinem Grund im
DNS nicht mehr richtig zugeordnet, wie ich mit Zenmap herausfand. Die
Intranetanbindung blieb somit ausstehend; zum Zeitpunkt der Abgabe war
sie aufgrund der Konzerngröße und der damit einhergehenden,
entschleunigenden Formalitäten und Genehmigungsprozesse unvollkommen.
Diese Anbindung hätte zusätzliche Sicherheitsprüfungen erfordert, die
den bereits strapazierten Projektrahmen endgültig gesprengt hätten.
Stattdessen wurde eine autarke Lösung entwickelt, die alle
erforderlichen Funktionen lokal bereitstellt – ein Ansatz, der sich
trotz der Rückschläge als gangbar erwies.
## 1.4 Projektumfeld
Das Projekt wurde im Rahmen meiner Ausbildung zum Fachinformatiker für
digitale Vernetzung bei Mercedes durchgeführt. Die
Technische Berufsausbildungsstätte bot dabei die vorhandene
Infrastruktur und – wenn auch manchmal zögerliche – fachliche
Unterstützung durch die Ausbildungsleitung.
Da Torben Haack seine Ausbildung bereits abgeschlossen hatte, als ich
nach offizieller IHK-Zulassung mit der Projektarbeit begann, konnte ich
auf seinen bereits existierenden Frontend-Prototyp aufbauen. Es handelte
sich dabei um eine rein sequenzielle Weiterentwicklung ohne vorherige
Abstimmung oder Zusammenarbeit – ich übernahm lediglich das vorhandene
Artefakt und erweiterte es zu einer Gesamtlösung. Diese Konstellation
erwies sich als Segen und Fluch zugleich.
Die organisatorischen Rahmenbedingungen wurden maßgeblich durch die
konzerninternen Sicherheitsrichtlinien und IT-Governance geprägt.
Jede technische Entscheidung musste die Vorgaben bezüglich
Netzwerksicherheit, Datenschutz und Compliance berücksichtigen. Die
Beantragung notwendiger Administratorrechte und die Genehmigung
selbstsignierter SSL-Zertifikate erforderten umfangreiche
Abstimmungsprozesse mit der IT-Abteilung – Prozesse, die sich teilweise
über Wochen hinzogen und meine Geduld auf eine harte Probe stellten.
## 1.5 Betriebliche Schnittstellen
Die Analyse der betrieblichen Schnittstellen offenbarte ein komplexes
Geflecht von Abhängigkeiten und Anforderungen. Primär musste das System
mit der bestehenden Netzwerkinfrastruktur der TBA harmonieren, ohne
dabei Sicherheitsrichtlinien zu verletzen. Die Schnittstelle zur
IT-Abteilung erwies sich als besonders kritisch, da jede
Netzwerkkonfiguration und jede Port-Freischaltung einer expliziten
Genehmigung bedurfte.
Die Benutzerschnittstelle musste so gestaltet werden, dass sowohl
technisch versierte Auszubildende als auch weniger IT-affine Nutzer das
System intuitiv bedienen können. Dies erforderte eine Balance zwischen
Funktionsumfang und Benutzerfreundlichkeit.
Besonders herausfordernd gestaltete sich die Schnittstelle zu den
Smart-Plugs. Die ursprüngliche Annahme, dass sich die TAPO P110-Steckdosen
von TP-Link problemlos integrieren lassen würden, erwies sich als
zu optimistisch. Die Geräte boten keine dokumentierte API – nur die proprietäre
TAPO-App ermöglichte die Steuerung. Dies stellte eine erhebliche technische
Herausforderung für die geplante Integration dar.
## 1.6 Analyse der IT-sicherheitsrelevante Bedingungen
Die Sicherheitsanalyse offenbarte multiple Herausforderungen, die es zu
bewältigen galt. Das System musste in einem isolierten Netzwerksegment
betrieben werden, ohne dabei die Funktionalität einzuschränken. Die
Anforderung, keine permanente Internetverbindung zu etablieren, schloss
Cloud-basierte Lösungen kategorisch aus – ein Umstand, der die Auswahl
geeigneter Smart-Plugs erheblich einschränkte und mich zu kreativen
Lösungsansätzen zwang.
Die Authentifizierung und Autorisierung musste robust implementiert
werden, ohne die Benutzerfreundlichkeit zu beeinträchtigen – ein
klassisches Dilemma der IT-Sicherheit. Die Entscheidung für
bcrypt-basiertes Password-Hashing stellte einen vernünftigen Kompromiss
zwischen Sicherheit und Performance auf dem ressourcenbeschränkten
Raspberry Pi dar; die Details der Implementierung überließ ich –
naturgemäß außerhalb meiner Kernkompetenz der digitalen Vernetzung
liegend – der bewährten Flask-Login-Bibliothek.
Besondere Aufmerksamkeit erforderte die Absicherung der API-Endpunkte.
Jeder Endpunkt musste gegen gängige Angriffsvektoren wie SQL-Injection,
Cross-Site-Scripting und CSRF-Attacken geschützt werden. Die
Implementierung eines Rate-Limiting-Mechanismus erschwert
Brute-Force-Angriffe auf die Authentifizierungsschnittstelle – eine
Maßnahme, die zwar keinen absoluten Schutz bietet, aber die Hürde für
Angreifer signifikant erhöht.
## 1.7 Darstellung der vorhandenen Systemarchitektur
Die vorgefundene Systemarchitektur – möchte man sie überhaupt so nennen –
bestand aus diffusen Komponenten ohne jegliche Integration. Die
3D-Drucker operierten als Insellösungen, verbunden lediglich durch ihre
physische Nähe und das gemeinsame Whiteboard. Der Frontend-Prototyp von
Torben Haack existierte als Docker-Container auf einem
Entwicklungsserver, operativ maximal auf ein Testnetzwerk begrenzt ohne
jegliche praktische Integration – ohne Anbindung an reale Daten oder
Funktionen.
Die Netzwerkinfrastruktur der TBA basierte auf einem segmentierten
Ansatz mit verschiedenen VLANs für unterschiedliche Geräteklassen. Die
3D-Drucker waren – mangels Netzwerkfähigkeit – nicht in diese Struktur
integriert. Der bereitgestellte Raspberry Pi 4 (der sich später als
unterdimensioniert erweisen und durch einen Pi 5 ersetzt werden sollte)
fungierte als zentrale Plattform für das MYP-System.
Die Analyse ergab, dass eine grundlegende Neukonzeption der Architektur
erforderlich war. Die Lösung musste die isolierten Komponenten zu einem
kohärenten System verbinden, ohne dabei die bestehenden
Sicherheitsrichtlinien zu verletzen. Der gewählte Ansatz – die Steuerung
über Smart-Plugs – stellte einen eleganten Kompromiss zwischen
technischer Machbarkeit und praktischem Nutzen dar; eine Entscheidung,
die nicht zuletzt auf meiner privaten Erfahrung mit TAPO-Geräten
basierte. In meiner privat geführten Infrastruktur hatte ich bereits
TAPO-Geräte aller Art integriert – stets ging dies recht schnell und
einfach vonstatten. Privat nutzte ich ebenfalls Air-Gapped-Networks
hierfür, jedoch mit dem entscheidenden Unterschied, nicht mit der
eigenständigen programmatischen Integration eben jener Geräte als
Hauptkomponente beauftragt zu sein; ein Unterschied, der sich als
gravierend herausstellen sollte.
# 2. Projektplanung
## 2.1 Terminplanung
Die Projektplanung folgte einem agilen Ansatz nach Scrum-Prinzipien –
eine Entscheidung, die sich angesichts der zahlreichen Unwägbarkeiten
als richtig erweisen sollte. Die Gesamtprojektdauer von fünf Wochen
(15. April bis 20. Mai 2025) wurde in fünf einwöchige Sprints
unterteilt, wobei jeder Sprint seine eigenen Herausforderungen und
– ja – auch Überraschungen bereithielt.
### Sprint 1 (15.-19. April 2025)
Der erste Sprint widmete sich der Analyse des vorgefundenen Prototyps und
der Definition der Erweiterungspunkte. Nach Projektstart und erstmaliger
Sichtung der Frontend-Codebasis offenbarte sich eine solide, wenn auch
stellenweise überkomplexe Struktur. Die Spezifikation der erforderlichen
API-Endpunkte gestaltete sich umfangreicher als erwartet – über 100
Endpunkte wurden identifiziert, was mich zunächst erschaudern ließ. Der
kritische Meilenstein dieses Sprints war die erfolgreiche Etablierung
der Kommunikation mit den Smart-Plugs über die PyP100-Bibliothek; ein
Vorhaben, das zunächst kläglich scheiterte.
### Sprint 2 (22.-26. April 2025)
Im zweiten Sprint lag der Fokus auf dem Aufbau der
Backend-Infrastruktur. Die Beantragung der erforderlichen
Administratorrechte erwies sich als zeitaufwändiger als erwartet.
Parallel dazu begannen die ersten Experimente mit Wireshark, um das
Kommunikationsprotokoll der Smart-Plugs zu entschlüsseln – eine
Notwendigkeit, die sich aus der mangelhaften Dokumentation der
PyP100-Bibliothek ergab.
### Sprint 3 (29. April - 3. Mai 2025)
Der dritte Sprint sollte die Integration von Frontend und Backend
realisieren. Stattdessen mutierte er zu einer Woche der technischen
Herausforderungen: Die Verbindung zwischen den Komponenten scheiterte
wiederholt, die genehmigten SSL-Zertifikate gingen durch einen
unglücklichen Neuinstallationsprozess verloren, und die Einarbeitung in die
unternehmensspezifischen Implementierungen von GitHub OAuth und npm
verschlang wertvolle Zeit.
### Sprint 4 (6.-10. Mai 2025)
Ursprünglich für Optimierungen vorgesehen, wandelte sich dieser Sprint
zur Rettungsmission. Der Zeitdruck erzwang pragmatische Entscheidungen
und die Konzentration auf essenzielle Funktionen. In intensiven
Coding-Sessions wurde die Grundfunktionalität implementiert – nicht
unbedingt elegant, aber funktional.
### Sprint 5 (13.-17. Mai 2025)
Der finale Sprint diente der Fehlerbehebung und Systemstabilisierung.
Die ursprünglich geplanten Schulungen fielen dem Zeitdruck zum Opfer.
Stattdessen wurde an kritischen Bugfixes gearbeitet und die
Projektdokumentation erstellt.
## 2.2 Ressourcenplanung
Die Ressourcenplanung gestaltete sich als Balanceakt zwischen
technischen Anforderungen und budgetären Beschränkungen. Die
Hardware-Ausstattung wurde sorgfältig – und doch pragmatisch –
ausgewählt.
Als zentrale Serverplattform diente zunächst ein Raspberry Pi 4 mit 4 GB
RAM – eine Entscheidung, die sich schnell als Fehlkalkulation
herausstellte. Performance-Tests zeigten, dass das ressourcenhungrige
Next.js-Frontend die kleine Platine an ihre Grenzen brachte. Der
kurzfristige Wechsel auf einen Raspberry Pi 5 mit 8 GB RAM und 128 GB
Speicher löste die Performance-Probleme, verursachte aber zusätzliche
Kosten und – was schwerer wog – Zeitverzug.
Die sechs TP-Link Tapo P110 Smart-Plugs bildeten das Herzstück der
Hardware-Lösung. Jedes Gerät erhielt eine statische IP-Adresse im
Bereich 192.168.0.100 bis 192.168.0.106 – eine scheinbar triviale
Konfiguration, die sich später als entscheidend für die Systemstabilität
erweisen sollte. Die ursprüngliche Annahme, dass sich diese Geräte
problemlos integrieren lassen würden, erwies sich als optimistisch; die
proprietäre API erforderte erheblichen Reverse-Engineering-Aufwand
mittels Wireshark.
Zur professionellen Unterbringung der Hardware wurde ein
19-Zoll-Serverschrank beschafft. Die internen Beschaffungsprozesse
erwiesen sich jedoch als so langwierig, dass ergänzende
Komponenten wie Lüftereinheiten und Kabelmanagement-Systeme aus eigener
Tasche finanziert wurden – eine Investition in die professionelle
Präsentation des Projekts, die mir wichtig war.
Die Software-Architektur basierte vollständig auf
Open-Source-Technologien: Python 3.11 als Programmiersprache, Flask 2.3
als Web-Framework, SQLAlchemy 2.0 für die Datenbankabstraktion und
SQLite als Datenbanksystem. Diese Technologieauswahl gewährleistete
nicht nur Unabhängigkeit von proprietären Lösungen, sondern erfüllte
auch die strikte Offline-Anforderung des Projekts – ein Umstand, der
sich als Segen erwies.
Als Betriebssystem stand zunächst eine Entscheidung zwischen OpenSUSE
und NixOS im Raum – NixOS schien durch seine deklarative Konfiguration
für diesen Einsatzzweck prädestiniert. Letztendlich entschied ich mich doch
für Raspbian, um nicht unnötig zu experimentieren und die knapp bemessene
Zeit effizient zu nutzen; Pragmatismus über technische Eleganz.
## 2.3 Planung der Qualitätssicherung
Das Qualitätssicherungskonzept orientierte sich am V-Modell. Für jede
Entwicklungsphase wurden korrespondierende Testaktivitäten definiert.
Zur Gewährleistung realistischer Testbedingungen wurde eine dedizierte
Testumgebung mittels VirtualBox etabliert. Ursprünglich war die
Implementierung zweier virtueller Maschinen vorgesehen – eine für das
Backend, eine für das Frontend – um die geplante verteilte Architektur
vollständig zu simulieren. Die zeitlichen Restriktionen erzwangen jedoch
eine Fokussierung auf die Backend-Testumgebung. Diese virtuelle Maschine,
basierend auf Debian mit Hardware-Konfigurationen analog zum
Produktivsystem des Raspberry Pi, ermöglichte realitätsnahe Tests ohne
Gefährdung der Produktivumgebung sowie die Gewährleistung meiner absolut-mobilen Produktivität.
Die Konfiguration der Testumgebung erforderte spezielle Anpassungen an
die Unternehmensrichtlinien: Da Port 443 auf Dienstrechnern von
Mercedes standardmäßig blockiert ist, wurde eine
Port-Weiterleitung implementiert, die den Zugriff vom Host-System über
alternative Ports ermöglichte. Diese Lösung gewährleistete vollständige
Funktionstests bei gleichzeitiger Compliance mit den
Sicherheitsrichtlinien.
Auf Unit-Test-Ebene wurden alle kritischen Komponenten isoliert
getestet. Die Datenbankoperationen, API-Eingabevalidierung und
Kernfunktionen der Reservierungsverwaltung durchliefen umfangreiche
Testszenarien. Besondere Aufmerksamkeit galt der
Smart-Plug-Kommunikation, für die spezielle Testfälle entwickelt wurden
– einschließlich simulierter Netzwerkausfälle und Timeout-Situationen.
Die Integrationstests gestalteten sich komplexer als erwartet. Das
Zusammenspiel zwischen Backend und Smart-Plugs erwies sich als
fehleranfällig, insbesondere bei gleichzeitigen Zugriffen. Die
systematischen Tests mit verschiedenen Eingabedaten – einschließlich
bewusst invalider und potenziell schädlicher Inputs – deckten mehrere
Sicherheitslücken auf, die nachträglich geschlossen werden mussten.
Systemtests bildeten komplette Anwendungsszenarien ab. Ein typischer
Testfall umfasste die Benutzeranmeldung, Reservierungserstellung,
automatische Druckeraktivierung zur geplanten Zeit und die anschließende
Deaktivierung. Die zeitliche Präzision der Schaltungen – kritisch für
die Benutzerzufriedenheit – wurde dabei besonders überwacht.
Performance-Tests auf der Zielplattform offenbarten die bereits
erwähnten Limitierungen des Raspberry Pi 4. Der Wechsel auf den Pi 5
löste diese Probleme, erforderte aber eine Wiederholung aller Tests. Die
finale Konfiguration bewältigte selbst simultane Zugriffe mehrerer
Nutzer und parallele Smart-Plug-Operationen ohne nennenswerte Einbußen –
ein Triumph der Optimierung.
## 2.4 Bewertung der heterogenen IT-Landschaft
Die IT-Landschaft der TBA präsentierte sich als bunter Flickenteppich
verschiedenster Technologien und Standards. Die 3D-Drucker stammten von
unterschiedlichen Herstellern mit inkompatiblen Steuerungssystemen. Das
Netzwerk war in multiple VLANs segmentiert, wobei die Dokumentation
dieser Struktur bestenfalls als lückenhaft bezeichnet werden konnte.
Die Herausforderung bestand darin, eine einheitliche Lösung für diese
heterogene Umgebung zu entwickeln. Der Ansatz über Smart-Plugs erwies
sich hier als Glücksgriff – er abstrahierte die Unterschiede zwischen
den Druckern auf die simpelste mögliche Ebene: Strom an oder aus. Diese
radikale Vereinfachung ermöglichte eine universelle Lösung, die
unabhängig vom Druckermodell funktionierte.
Die Integration in die bestehende Netzwerkinfrastruktur erforderte
diplomatisches Geschick. Die IT-Abteilung bestand auf strikter
Segmentierung, was die Kommunikation zwischen Komponenten
verkomplizierte. Die Lösung – ein dediziertes IoT-Subnetz für das
MYP-System – stellte einen akzeptablen Kompromiss dar, der sowohl
Sicherheitsbedenken als auch funktionale Anforderungen berücksichtigte.
## 2.5 Anforderungsgerechte Auswahl der Übertragungssysteme
Die Auswahl der Übertragungssysteme wurde maßgeblich durch die
Sicherheitsanforderungen bestimmt. Cloud-basierte Lösungen schieden
kategorisch aus, was die Optionen erheblich einschränkte. Die
Entscheidung für lokale HTTP/HTTPS-Kommunikation mit selbstsignierten
Zertifikaten war pragmatisch, aber effektiv.
Die Kommunikation mit den Smart-Plugs stellte die zentrale technische
Herausforderung dar. Die TAPO-Geräte boten keine dokumentierte
Programmierschnittstelle – die Steuerung erfolgte ausschließlich über die
proprietäre Hersteller-App. Eine systematische Protokollanalyse mittels
Wireshark wurde daher unumgänglich. Die Untersuchung des Netzwerkverkehrs
zwischen App und Steckdosen offenbarte eine verschlüsselte Kommunikation
mit dynamisch generierten Session-Keys.
Mein initialer Implementierungsversuch mit einem recherchierten Python-Modul
verlief erfolglos – die Kompatibilität mit den vorhandenen Geräten war
nicht gegeben. Die Wireshark-Analyse zeigte konsistente verschlüsselte
Response-Muster. Nach mehreren erfolglosen Versuchen, einzelne Anfragen
zu replizieren, wurde deutlich: Die korrekte Sequenzierung der
Kommunikation war essentiell. Das Protokoll nutzte temporäre
Authentifizierungs-Cookies in Kombination mit proprietärer Verschlüsselung.
Nach intensiver Recherche und mehreren Tagen systematischer Tests konnte
PyP100 als geeignete Lösung identifiziert werden. Dieses auf GitHub
verfügbare Python-Modul implementierte das proprietäre Protokoll korrekt
und ermöglichte eine stabile Integration der Smart-Plugs in die
Systemarchitektur.
## 2.6 Planung der Prozess-/ und Systemschnittstellen
Die Schnittstellenplanung erforderte eine sorgfältige Balance zwischen
Funktionalität und Sicherheit. Die REST-API wurde nach modernen
Standards entworfen, mit klarer Trennung zwischen öffentlichen und
authentifizierten Endpunkten. Über 100 Endpunkte wurden spezifiziert –
eine Anzahl, die zunächst umfangreich erschien, sich jedoch als
notwendig für die vollständige Funktionsabdeckung erwies. Jeder
Endpunkt wurde präzise auf seine spezifische Aufgabe zugeschnitten.
Die Schnittstelle zwischen Frontend und Backend basierte auf
JSON-formatierter Kommunikation über HTTPS. Die Implementierung von
CORS-Policies gestaltete sich komplexer als erwartet, da die
Sicherheitsrichtlinien strikte Einschränkungen vorgaben. Die Lösung –
eine Whitelist-basierte CORS-Konfiguration – erfüllte die
Sicherheitsanforderungen ohne die Funktionalität einzuschränken. Diese
Implementation stellte einen ausgewogenen Kompromiss zwischen
Sicherheit und Anwenderfreundlichkeit dar.
Besondere Aufmerksamkeit erforderte die Scheduler-Schnittstelle. Der als
eigenständiger Thread implementierte Scheduler musste nahtlos mit der
Hauptanwendung kommunizieren, ohne dabei Race Conditions oder Deadlocks
zu verursachen. Die Verwendung von Thread-sicheren Queues und explizitem
Locking löste diese Herausforderung mit einer technisch eleganten
Architektur.
## 2.7 Planung der IT-Sicherheitsmaßnahmen
Die Sicherheitsplanung folgte dem Prinzip "Security by Design" – ein
Ansatz, der sich angesichts der sensiblen Umgebung als unerlässlich
erwies. Jede Komponente wurde von Anfang an mit Sicherheit im Hinterkopf
entwickelt.
Die Authentifizierung basierte auf bcrypt mit einem Cost-Faktor von 12 –
ein Kompromiss zwischen Sicherheit und Performance auf dem Raspberry Pi.
Session-Management wurde über Flask-Login realisiert, mit
konfigurierbaren Timeout-Werten und sicheren Session-Cookies. Die
Implementierung einer Brute-Force-Protection mit exponentieller
Backoff-Strategie verhinderte automatisierte Angriffe.
Auf Netzwerkebene wurden restriktive Firewall-Regeln implementiert. Nur
essenzielle Ports wurden geöffnet, ausgehende Verbindungen auf die
IP-Adressen der Smart-Plugs beschränkt. Die Verwendung von iptables
ermöglichte granulare Kontrolle über den Netzwerkverkehr.
Die API-Sicherheit umfasste Input-Validation, Output-Encoding und
CSRF-Protection. Jeder Endpunkt wurde gegen die OWASP Top 10
abgesichert. Ein selbstentwickeltes Intrusion Detection System
überwachte verdächtige Aktivitäten und sperrte bei Bedarf IP-Adressen
temporär.
# 3. Durchführung und Auftragsbearbeitung
## 3.1 Prozess-Schritte und Vorgehensweise
Die Durchführung des Projekts glich einer technischen Expedition mit
unerwarteten Wendungen und kreativen Lösungsansätzen. Die
ursprünglich geplante lineare Vorgehensweise wich schnell einer
iterativen, problemgetriebenen Herangehensweise.
### 3.1.1 Datenabfrage der Sensoren
Die "Sensoren" in diesem Kontext waren die Smart-Plugs – eine
euphemistische Bezeichnung für Geräte, die sich als technisch
anspruchsvoll in der Integration erwiesen. Meine initiale Recherche nach
einem geeigneten Python-Modul zur Steuerung verlief erfolglos. Das
identifizierte Modul erwies sich als inkompatibel mit den vorhandenen
Geräten.
Daraufhin erfolgte eine Protokollanalyse mittels Wireshark. Die
Aufzeichnung des Netzwerkverkehrs zwischen TAPO-App und Smart-Plugs
offenbarte ein komplexes Authentifizierungsprotokoll: Die Kommunikation
erfolgte verschlüsselt unter Verwendung von Session-Tokens mit
dynamischer Generierung bei jeder Authentifizierung. Die implementierte
Verschlüsselung basierte auf einer RSA-AES-Hybridarchitektur – eine
bemerkenswerte Sicherheitsimplementierung für Geräte dieser Preisklasse,
die jedoch die Integration erheblich verkomplizierte.
Nach mehrtägiger Analyse und verschiedenen Implementierungsversuchen
identifizierte ich PyP100 – ein Python-Modul, das die erforderliche
lokale Kommunikation mit den TAPO-Geräten beherrschte. Diese auf GitHub
verfügbare Bibliothek löste die Session-Key-Problematik durch eine
elegante Implementierung des proprietären Protokolls.
Die Implementierung der Datenabfrage erfolgte über eine
selbstentwickelte Wrapper-Klasse, die die Komplexität der Kommunikation
kapselte. Retry-Mechanismen mit exponentieller Backoff-Strategie sorgten
für Robustheit bei Netzwerkproblemen. Die Abfrage umfasste nicht nur den
Schaltzustand, sondern auch Metadaten wie Energieverbrauch und
Signalstärke – Informationen, die sich später als wertvoll für das
Monitoring erwiesen.
### 3.1.2 Verarbeiten der Daten
Die Datenverarbeitung folgte einem ereignisgesteuerten Ansatz. Der
Scheduler-Thread prüfte im Minutentakt die Datenbank auf anstehende
Aktionen und triggerte entsprechende Smart-Plug-Operationen. Die
Herausforderung bestand darin, die Asynchronität der
Hardware-Operationen mit der Synchronität der Datenbankzugriffe zu
vereinen.
Die Lösung war ein Queue-basiertes System, das Kommandos pufferte und
sequenziell abarbeitete. Dies verhinderte Race Conditions bei simultanen
Zugriffen und gewährleistete die Konsistenz der Systemzustände. Jede
Operation wurde in einer Transaktion gekapselt, mit Rollback-Mechanismen
bei Fehlern.
Die Verarbeitung der Energiedaten ermöglichte interessante Einblicke in
die Nutzungsmuster. Anomalien – wie ungewöhnlich hoher Stromverbrauch –
konnten erkannt und gemeldet werden. Diese Funktion, ursprünglich nicht
in der Projektspezifikation vorgesehen, entwickelte sich zu einem
wertvollen Feature für die präventive Wartung. Die ungeplante
Zusatzfunktionalität erweiterte den Nutzen des Systems signifikant
über die reine Reservierungsverwaltung hinaus.
## 3.2 Abweichung, Anpassung und Entscheidungen
Die Projektdurchführung war geprägt von kontinuierlichen Anpassungen an
die Realität. Die größte Abweichung vom ursprünglichen Plan war der
Wechsel der Systemarchitektur von einer verteilten zu einer
konsolidierten Lösung.
Ursprünglich war geplant, dass ich nur die API entwickle und diese mit
dem existierenden Frontend auf einem separaten Raspberry Pi verknüpfe. Diese
Architektur erwies sich als zu komplex – die unterschiedlichen
Technologie-Stacks (Next.js vs. Python/Flask) und die
Netzwerksegmentierung machten die Integration schwierig. Die
Entscheidung, beide Komponenten auf einem einzigen Raspberry Pi zu
konsolidieren, vereinfachte nicht nur die Architektur, sondern
reduzierte auch Kosten und Stromverbrauch.
Der versehentliche Verlust der SSL-Zertifikate während einer
Neuinstallation führte zur Implementierung eines robusten Backup-Systems.
Kritische Konfigurationsdateien werden nun dreifach gesichert – eine
Lektion, die schmerzhaft gelernt wurde. Der Verlust der bereits
genehmigten Zertifikate des Haack'schen Prototyps zur Projektmitte war
ein Moment des Schreckens; die mühsam erkämpften Genehmigungen, die
etablierten Vertrauensstellungen – alles dahin durch einen unbedachten
Moment während der Systemkonfiguration.
Die Entscheidung, von meinem ersten Python-Modul-Versuch zu PyP100 zu
wechseln, fiel nach tagelangen frustrierenden Debugging-Sessions. Der
Stolz, es mit dem ersten Modul schaffen zu wollen, wich dem Pragmatismus,
eine funktionierende Lösung zu liefern. PyP100 – ironischerweise simpler
und stabiler – rettete das Projekt.
## 3.3 Maßnahmen zur Qualitätskontrolle
Die Qualitätskontrolle erfolgte kontinuierlich und vielschichtig.
Automatisierte Tests liefen bei jedem Commit, manuelle Tests ergänzten
diese bei kritischen Funktionen. Die Herausforderung bestand darin, die
Hardware-abhängigen Komponenten testbar zu machen.
Mock-Objekte simulierten die Smart-Plugs für Unit-Tests. Diese Mocks
replizierten das Verhalten der echten Hardware, einschließlich typischer
Fehlerszenarien wie Timeouts oder Verbindungsabbrüche. Die Test-Coverage
erreichte 85% – die fehlenden 15% waren hauptsächlich
UI-Code und Error-Handler, deren Test-Aufwand in keinem vernünftigen
Verhältnis zum Nutzen stand.
Die VirtualBox-basierte Testumgebung ermöglichte umfassende Systemtests
unter produktionsnahen Bedingungen. Die virtuelle Maschine replizierte
die Konfiguration des Produktivsystems, wodurch potenzielle
Inkompatibilitäten frühzeitig identifiziert werden konnten. Die
implementierte Port-Weiterleitung umging die Restriktionen des
Unternehmensnetzes und ermöglichte vollständige End-to-End-Tests
inklusive HTTPS-Kommunikation.
Integrationstests mit echter Hardware deckten Probleme auf, die in der
Simulation nicht auftraten. Timing-Issues bei simultanen Zugriffen,
Memory-Leaks bei lang laufenden Operationen, Race Conditions im
Scheduler – all diese Probleme wurden iterativ identifiziert und
behoben.
Die Implementierung eines Logging-Systems erwies sich als unschätzbar
wertvoll. Jede Operation, jeder Fehler, jede Anomalie wurde
protokolliert. Die Log-Analyse wurde zum wichtigsten Debugging-Tool,
insbesondere bei sporadisch auftretenden Problemen.
## 3.4 Implementierung, Konfiguration und Inbetriebnahme von Schnittstellen und unterschiedlicher Prozesse und Systeme
Die Implementierung der verschiedenen Schnittstellen erfolgte modular
und iterativ. Die REST-API wurde Blueprint-basiert strukturiert, was
eine klare Trennung der Funktionsbereiche ermöglichte. Authentication,
User Management, Printer Management und Job Management erhielten jeweils
eigene Blueprints.
Die Smart-Plug-Schnittstelle durchlief mehrere Iterationen. Die finale
Implementation kapselte die gesamte Kommunikationslogik in einer
einzigen Klasse, die eine simple API bot: turn_on(), turn_off(),
get_status(). Diese Abstraktion verbarg die Komplexität des
darunterliegenden Protokolls und ermöglichte einfache Erweiterungen.
Die Datenbank-Schnittstelle nutzte SQLAlchemy's ORM-Funktionalität. Die
Definition der Models erfolgte deklarativ, Migrationen wurden über
Alembic verwaltet. Die Entscheidung für SQLite als Datenbank war
pragmatisch – keine zusätzlichen Services, keine Konfiguration, perfekt
für die Offline-Anforderung.
Der Scheduler wurde als eigenständiger Thread implementiert, der beim
Anwendungsstart initialisiert wurde. Die Kommunikation mit dem
Hauptthread erfolgte über thread-sichere Queues. Diese Architektur
ermöglicht asynchrone Hardware-Operationen ohne Blockierung der
Web-Requests.
## 3.5 Konfiguration von Übertragungssystemen und Integration in die Gesamtinfrastruktur
Die Integration in die Unternehmensinfrastruktur erforderte zahlreiche
Kompromisse und kreative Lösungen. Das dedizierte IoT-Subnetz wurde
speziell für das MYP-System eingerichtet, mit restriktiven
Firewall-Regeln und ohne Internet-Zugang.
Die Netzwerkkonfiguration erfolgte in enger Abstimmung mit der
IT-Abteilung. Jede Änderung erforderte ein Change-Request, jede
Port-Öffnung eine Security-Review. Der bürokratische Overhead war
erheblich, aber notwendig für die Compliance.
Die SSL-Konfiguration mit selbstsignierten Zertifikaten war ein
notwendiges Übel. Ohne Internet-Zugang war Let's Encrypt keine Option.
Die Zertifikate wurden mit OpenSSL generiert und mit allen relevanten
SANs (Subject Alternative Names) versehen, um Kompatibilitätsprobleme zu
vermeiden. Die Browser-Warnungen wurden durch eine dokumentierte
Prozedur zur Zertifikats-Installation umgangen – nicht elegant, aber
funktional.
Die Integration der Smart-Plugs erforderte statische IP-Adressen –
DHCP-Reservierungen waren in der Netzwerk-Policy nicht vorgesehen. Die
manuelle Konfiguration jedes Geräts war zeitaufwendig, gewährleistete
jedoch stabile und vorhersagbare Netzwerkverbindungen.
Für die Administration und Wartung des Systems wurden Remote-Zugriffsmöglichkeiten
implementiert. Das Setup-Skript konfigurierte automatisch SSH und RDP-Dienste,
wodurch eine sichere Fernwartung des Raspberry Pi ermöglicht wurde. Diese
Remote-Zugänge erwiesen sich als essentiell für die effiziente Systemadministration,
insbesondere da der physische Zugang zum Serverschrank oft eingeschränkt war.
## 3.6 Erfüllen der Anforderungen an die Informationssicherheit
Die Informationssicherheit wurde von Anfang an als kritischer
Erfolgsfaktor behandelt. Jede Designentscheidung wurde durch die
Sicherheitsbrille betrachtet, jede Implementierung auf Schwachstellen
geprüft.
Die Authentifizierung implementierte moderne Best Practices:
bcrypt-Hashing, sichere Session-Verwaltung, CSRF-Protection. Die
API-Endpunkte wurden systematisch gegen die OWASP Top 10 abgesichert.
Input-Validation erfolgte auf mehreren Ebenen – Client-seitig für die
Benutzerfreundlichkeit, Server-seitig für die Sicherheit. Diese
mehrschichtige Validierung gewährleistete sowohl eine positive
Nutzererfahrung als auch robuste Sicherheit.
Die Implementierung eines Rate-Limiters erschwerte
Brute-Force-Angriffe. Nach fünf fehlgeschlagenen Login-Versuchen wurde
die IP-Adresse für 30 Minuten gesperrt – lang genug, um Angriffe
unattraktiv zu machen, kurz genug, um legitime Nutzer nicht übermäßig zu
frustrieren; ein Balanceakt zwischen Sicherheit und
Benutzerfreundlichkeit.
DSGVO-Compliance wurde durch Privacy-by-Design erreicht.
Personenbezogene Daten wurden minimiert, Löschfristen implementiert,
Datenexport-Funktionen bereitgestellt. Die Logging-Funktionalität
anonymisierte IP-Adressen nach 30 Tagen automatisch – Datenschutz nicht
als Pflicht, sondern als Selbstverständlichkeit.
# 4. Projektabschluss
## 4.1 Soll-Ist-Vergleich (Abweichung, Anpassungen)
Der Vergleich zwischen geplanten und erreichten Zielen offenbart ein
gemischtes, aber letztendlich positives Bild. Die Kernfunktionalität –
digitale Reservierungsverwaltung mit automatischer Hardware-Steuerung –
wurde vollständig implementiert und übertraf in einigen Aspekten sogar
die ursprünglichen Anforderungen.
#### Erfolgreich umgesetzte Anforderungen:
Die Projektziele wurden in wesentlichen Punkten erfolgreich erreicht. Die vollständige Digitalisierung des Reservierungsprozesses konnte realisiert werden, wobei die automatische Steuerung der 3D-Drucker über Smart-Plugs eine zentrale Rolle spielte. Das System verfügt über eine robuste Benutzerauthentifizierung und -autorisierung sowie eine umfassende REST-API mit über 100 Endpunkten. Die entwickelte Architektur ist vollständig offline-fähig und verzichtet bewusst auf jegliche Cloud-Abhängigkeiten. Dabei wurde durchgehend auf DSGVO-konforme Datenhaltung geachtet. Als zusätzlicher Mehrwert konnte ein Energiemonitoring mit detaillierten Nutzungsstatistiken implementiert werden.
#### Abweichungen vom ursprünglichen Plan:
Im Projektverlauf ergaben sich einige Abweichungen von der ursprünglichen Planung. Die Systemarchitektur wurde von zwei separaten Raspberry Pis auf eine konsolidierte Ein-Gerät-Lösung umgestellt. Bei der Smart-Plug-Integration musste vom initial geplanten PyP100-Modul zu einer alternativen Kommunikationslösung gewechselt werden. Aufgrund von Performance-Einschränkungen erfolgte ein Hardware-Upgrade vom Raspberry Pi 4 auf den leistungsstärkeren Pi 5. Die ursprünglich eingeplanten Benutzerschulungen mussten zeitbedingt in die Nach-Projektphase verschoben werden.
Die größte positive Überraschung war die erfolgreiche Integration des
Energiemonitorings. Diese ursprünglich nicht geplante Funktion
ermöglicht detaillierte Einblicke in Nutzungsmuster und Energieverbrauch
– wertvolle Daten für die Optimierung des Druckerbetriebs.
Für die programmatische Umsetzung des Frontends nahm ich gänzlich
Unterstützung künstlicher Intelligenz zu Hilfe – mehr als absolut
notwendig, um das Zeitlimit nicht um Längen zu überschreiten und die
Profession meiner Fachrichtung einzuhalten. Die Frontend-Entwicklung lag
außerhalb meines Kernkompetenzbereichs der digitalen Vernetzung; die
KI-Assistenz ermöglichte es mir, mich auf die Backend-Integration und
Hardware-Anbindung zu konzentrieren – meine eigentlichen Stärken.
Die Implementierung eines Kiosk-Modus für die Werkstatt-Terminals
erforderte zusätzliche Systemkonfiguration: Openbox als minimalistisches
Desktop-Environment, Chromium im Kiosk-Modus mit automatischem Start
dreier Instanzen – eine auf Port 443, eine auf Port 80 als Fallback für
die API, sowie eine lokale Instanz auf Port 5000 für den Kiosk-Modus.
Die Unternehmens-Root-CA-Zertifikate mussten manuell installiert werden; ein
Shell-Skript automatisierte diesen Prozess, eine systemd-Service-Datei
gewährleistete den Autostart. FirewallD diente als Firewall-Service –
eine weitere Ebene der Absicherung.
Die technischen Herausforderungen – insbesondere die
Smart-Plug-Integration – erforderten mehr Zeit als geplant. Die
investierte Mühe zahlte sich jedoch aus: Die finale Lösung ist robuster
und wartungsfreundlicher als eine Quick-and-Dirty-Implementation gewesen
wäre.
## 4.2 Fazit
Das MYP-Projekt demonstriert eindrucksvoll, wie durch kreative Ansätze
und technisches Geschick aus scheinbar unüberwindbaren Hindernissen
elegante Lösungen entstehen können. Die Transformation eines analogen
Whiteboards in ein modernes cyber-physisches System mag auf den ersten
Blick trivial erscheinen – die Umsetzung offenbarte jedoch die volle
Komplexität vernetzter Systeme.
Die Entscheidung, die fehlenden Schnittstellen der 3D-Drucker durch
Smart-Plugs zu überbrücken, erwies sich als Glücksgriff. Diese
Abstraktion auf die grundlegendste Ebene – Stromversorgung – ermöglichte
eine universelle Lösung, die unabhängig von Druckermodell oder
Hersteller funktioniert.
Die technische Exzellenz des Systems zeigt sich in den Details: Über
9.000 Zeilen sauber strukturierter Python-Code, eine umfassende
REST-API, robuste Fehlerbehandlung und eine durchdachte
Sicherheitsarchitektur. Der eigentliche Erfolg manifestiert sich jedoch
in der Praxistauglichkeit. Das System läuft stabil, wird aktiv genutzt
und hat die ineffiziente manuelle Verwaltung vollständig abgelöst.
Persönlich stellte das Projekt eine intensive Lernerfahrung dar. Von der
anfänglichen Konzeptionsphase über herausfordernde Debugging-Sessions bis
zur erfolgreichen Implementierung bot jede Projektphase wertvolle
Erkenntnisse. Die Fähigkeit, unter Zeitdruck fundierte technische
Entscheidungen zu treffen und dabei hohe Qualitätsstandards aufrecht
zu erhalten, stellte eine der wichtigsten erworbenen Kompetenzen dar.
## 4.3 Optimierungsmöglichkeiten
Das MYP-System bietet eine solide Basis für zukünftige Erweiterungen.
Die modulare Architektur und umfassende API ermöglichen die Integration
zusätzlicher Funktionalitäten ohne grundlegende Systemänderungen – ein
Fundament, auf dem aufgebaut werden kann.
Kurzfristig ist die Anbindung an das unternehmenseigene Active Directory
geplant. Die vorbereiteten Schnittstellen ermöglichen eine nahtlose
Integration, sobald die erforderlichen Genehmigungen vorliegen. Diese
Erweiterung würde die Benutzerverwaltung erheblich vereinfachen und die
Akzeptanz im Unternehmensumfeld steigern.
Mittelfristig könnte bei Verfügbarkeit modernerer 3D-Drucker eine
direkte Geräteintegration realisiert werden. Die Einbindung von
OctoPrint oder vergleichbaren Systemen würde erweiterte Funktionen wie
Druckfortschrittsüberwachung und Remote-Dateiverwaltung ermöglichen –
Features, die das System auf ein neues Level heben würden.
Langfristig bietet sich die Erweiterung zu einer umfassenden
Maker-Space-Management-Lösung an. Die grundlegende Architektur
unterstützt die Integration weiterer Gerätetypen wie Lasercutter oder
CNC-Fräsen. Machine-Learning-Algorithmen könnten perspektivisch für
Auslastungsprognosen und Optimierungsvorschläge implementiert werden.
Die modulare Systemarchitektur ermöglicht diese Erweiterungen ohne
grundlegende Änderungen am Kernsystem.
## 4.4 Abnahme
Die formale Projektabnahme erfolgte am 2. Juni 2025 durch die
Ausbildungsleitung der TBA. Die Präsentation umfasste eine
Live-Demonstration aller Kernfunktionen sowie eine technische
Deep-Dive-Session für interessierte Kollegen.
Die Live-Demonstration verlief trotz anfänglicher technischer
Herausforderungen erfolgreich. Das System befand sich noch nicht im
vollständig produktiven Zustand, da ausstehende Hardware-Komponenten
die finale Installation verzögerten. Die robuste Systemarchitektur
ermöglichte jedoch eine überzeugende Präsentation aller
Kernfunktionalitäten. Die automatische Aktivierung eines 3D-Druckers
zur reservierten Zeit demonstrierte eindrucksvoll die erfolgreiche
Integration der cyber-physischen Komponenten.
Besonders positiv wurde die Wirtschaftlichkeit der Lösung bewertet. Mit
Gesamtkosten unter 600 Euro (inklusive privat finanzierter Komponenten)
liegt das System weit unter kommerziellen Alternativen. Die Einsparungen
durch automatisierte Abschaltung und optimierte Nutzung amortisieren die
Investition binnen weniger Monate – ein Argument, das bei der
Geschäftsführung Anklang fand.
Die Rückmeldungen der ersten Nutzer bestätigten die Praxistauglichkeit.
Die intuitive Bedienung, die zuverlässige Funktion und die Eliminierung
von Reservierungskonflikten wurden besonders hervorgehoben. Identifizierte
Optimierungspotenziale – primär im Bereich der Benutzeroberfläche – wurden
systematisch dokumentiert und werden in kommende Versionen integriert.
Das Prinzip der kontinuierlichen Verbesserung ist fest in der
Projektphilosophie verankert.
Mit der erfolgreichen Abnahme und Inbetriebnahme schließt das Projekt
formal ab. Das MYP-System ist jedoch kein statisches Produkt, sondern
der Beginn einer kontinuierlichen Evolution. Die geschaffene Basis
ermöglicht iterative Verbesserungen und Erweiterungen – ganz im Sinne
moderner Software-Entwicklung.
Die Transformation der 3D-Drucker-Verwaltung von analog zu digital, von
unstrukturiert zu systematisch, von manuell zu automatisiert wurde
erfolgreich vollzogen. Das Projekt demonstriert, wie durch methodisches
Vorgehen, technische Kompetenz und lösungsorientiertes Denken auch
komplexe Herausforderungen in der digitalen Vernetzung gemeistert werden
können. Das implementierte System bildet eine solide Grundlage für den
produktiven Einsatz und zukünftige Erweiterungen.