🎉 Updated IHK Documentation and Added REDENSART Training Dates 📚 🎨💄

This commit is contained in:
Till Tomczak 2025-06-03 08:37:59 +02:00
parent 4e539dbf67
commit f641b6c060
2 changed files with 414 additions and 76 deletions

View File

@ -43,198 +43,222 @@ D-16761 Hennigsdorf
## 1.1 Ausgangssituation und Problemstellung
Die Technische Berufsausbildungsstätte (TBA) der Mercedes-Benz AG am Standort Berlin steht vor einer zunehmenden Herausforderung in der effizienten Nutzung ihrer Ressourcen. Mit sechs hochwertigen 3D-Druckern verschiedener Hersteller, darunter Modelle von Prusa, Ultimaker und Artillery, verfügt die Einrichtung über eine beachtliche Produktionskapazität für die praktische Ausbildung. Jedoch offenbarte sich im täglichen Betrieb ein gravierendes Problem: Das vollständige Fehlen eines digitalen Reservierungs- und Verwaltungssystems führte zu erheblichen Ineffizienzen und Konflikten.
Die Technische Berufsausbildungsstätte (TBA) der Mercedes-Benz AG am Standort Berlin verfügt über sechs 3D-Drucker verschiedener Hersteller (Prusa, Anycubic; B-Ware im Vergleich zu 3D-Druckern von Kostenstellen höherer Prioriät sozusagen). Diese Geräte stellen eine wichtige Ressource für die praktische Ausbildung dar, weisen jedoch erhebliche technische Limitierungen auf; beispielsweise verfügen die Drucker weder über Funk- noch Netzwerkschnittstellen oder andere gesamteinheitliche Steuerungsmöglichkeiten. Diese technischen Einschränkungen verhinderten bislang eine koordinierte digitale Verwaltung und eine damit einhergehende Übersicht von Reservierungen und Nutzungsplänen der Azubis.
Die bisherige Praxis basierte auf einem manuellen Reservierungskalender in Form eines Whiteboards, welches neben den Druckern angebracht war. Diese analoge Lösung führte regelmäßig zu Doppelbuchungen, wenn mehrere Auszubildende gleichzeitig dasselbe Zeitfenster reservierten. Darüber hinaus mussten die Drucker manuell ein- und ausgeschaltet werden, was häufig vergessen wurde und zu unnötigem Stromverbrauch führte. Die fehlende Dokumentation der tatsächlichen Nutzungszeiten machte es unmöglich, valide Statistiken über die Auslastung der Geräte zu erstellen oder eine faire Kostenverteilung vorzunehmen.
Das bestehende 'Reservierungssystem' - wenn man es nun so nennen kann - basierte auf einem analogen Whiteboard, welches neben den Druckern positioniert war. Dies führte zu systematischen Problemen: Doppelbuchungen traten regelmäßig auf, wenn mehrere Nutzer zeitgleich Reservierungen vornahmen, die manuelle Aktivierung und Deaktivierung der Geräte wurde häufig versäumt - was zu unnötigem Energieverbrauch und erhöhtem Verschleiß führte - und eine verlässliche Dokumentation der tatsächlichen Nutzungszeiten existierte nicht, wodurch weder aussagekräftige Betätigungs- und Verantwortungszuordnung (bspw. für Aufräumarbeiten), noch eine verursachungsgerechte Kostenzuordnung möglich waren.
Mein Ausbilder erkannte die Dringlichkeit einer digitalen Lösung, insbesondere nachdem ein früherer Versuch eines Auszubildenden, ein Frontend-System zu entwickeln, gescheitert war. Dieses vorherige Projekt hatte zwar eine ansprechende Benutzeroberfläche hervorgebracht, jedoch fehlte jegliche Backend-Funktionalität und Hardware-Integration, wodurch es in der Praxis nicht einsetzbar war.
Ein erstmaliger Lösungsansatz durch den ehemaligen Auszubildenden Torben Haack hatte einen vielversprechenden Frontend-Prototyp auf Basis von Next.js hervorgebracht. Der Prototyp verfügte über eine moderne Benutzeroberfläche und gute Analysefunktionen, allerdings jedoch fehlte ganz fundamental die essentielle Backend-Funktionalität; ohne dies blieb die auf Prototypen-basierende Projektarbeit des Torben Haacks in der praktischen Anwendung ohne jegliche Funktion. Ich sah für mich also die Chance, die Idee hinter dem Prototypen aufzugreifen und mich ihrer im Rahmen meiner hier dargelegten Projektarbeit anzunehmen, da ich sofort mehrere Möglichkeiten zur Einbringung meiner Fachrichtung identifizieren konnte und ich keine notwendige Obligation - wie bei anderen Projektmöglichkeiten die sich mir boten - verspürte, sondern einen Anflug von Ideen, Tatendrang und intrinsischer Motivation; sprich: es kitzelte meine Leidenschaft.
## 1.2 Projektauftrag und Zielsetzung
Vor diesem Hintergrund erhielt ich den Auftrag, ein vollständiges cyber-physisches System zu entwickeln, welches die digitale Verwaltung der 3D-Drucker mit deren physischer Steuerung verbindet. Das System sollte dabei den Namen "MYP - Manage Your Printer" tragen und eine umfassende Lösung für alle identifizierten Probleme bieten.
Nach erfolgter Zulassung des Abschlussprojekts durch die IHK erhielt ich den Auftrag, den bestehenden Prototyp zu einer vollständigen cyber-physischen Lösung weiterzuentwickeln. Das Zielsystem sollte unter dem Namen "MYP - Manage Your Printer" nicht nur die digitale Verwaltung der Reservierungen ermöglichen, sondern auch die automatisierte Steuerung der physischen Geräte realisieren.
Die Kernzielsetzung des Projekts umfasste die Entwicklung einer Plattform, die nicht nur die Reservierung der Drucker digital abbildet, sondern auch deren automatische Steuerung übernimmt. Dabei war es von zentraler Bedeutung, dass das System vollständig offline-fähig ist, da die Sicherheitsrichtlinien der Mercedes-Benz AG keine dauerhafte Internetverbindung in der Produktionsumgebung erlauben. Diese Anforderung stellte eine besondere technische Herausforderung dar, da moderne Webapplikationen häufig auf Cloud-Services und externe APIs angewiesen sind.
Die zentrale Herausforderung bestand in der Überbrückung der technischen Limitierungen der vorhandenen 3D-Drucker. Da eine direkte Kommunikation mit den Geräten aufgrund fehlender Schnittstellen nicht möglich war, musste ein alternativer Ansatz zur Hardware-Steuerung entwickelt werden. Gleichzeitig waren die strengen Sicherheitsrichtlinien der Mercedes-Benz AG zu berücksichtigen, die keine permanenten Internetverbindungen in der Produktionsumgebung gestatten.
Ein weiteres wichtiges Projektziel war die Herstellerunabhängigkeit der Lösung. Da die vorhandenen 3D-Drucker von verschiedenen Herstellern stammen und keine einheitliche Schnittstelle bieten, musste ein Ansatz gefunden werden, der universell einsetzbar ist. Die Lösung sollte zudem eine klare Rollentrennung zwischen administrativen Nutzern, die das System verwalten, und regulären Nutzern, die lediglich Reservierungen vornehmen, implementieren.
Ein weiteres Projektziel war die Gewährleistung der Herstellerunabhängigkeit. Die heterogene Druckerlandschaft mit sechs unterschiedlichen Modellen erforderte eine universell einsetzbare Lösung. Das System sollte zudem eine differenzierte Rechteverwaltung implementieren, die zwischen administrativen Funktionen und regulären Nutzerrechten unterscheidet.
## 1.3 Lösungskonzept und technische Architektur
Nach eingehender Analyse der Anforderungen entwickelte ich ein innovatives Lösungskonzept, welches auf der Integration von TP-Link Tapo P110 Smart-Plugs basiert. Diese intelligenten Steckdosen fungieren als universelle Hardware-Schnittstelle zwischen dem digitalen System und den physischen 3D-Druckern. Durch die Kontrolle der Stromzufuhr können die Drucker unabhängig von Hersteller und Modell gesteuert werden, ohne dass direkte Eingriffe in deren Firmware oder Steuerungssysteme notwendig sind.
Die Analyse der technischen Rahmenbedingungen führte zu einem innovativen Lösungsansatz: Statt einer direkten Steuerung der 3D-Drucker erfolgt die Kontrolle über intelligente Zwischensteckdosen (Smart-Plugs). Als Hardware-Komponente wurden TP-Link Tapo P110 Smart-Plugs ausgewählt, die über eine lokale API verfügen und somit ohne Cloud-Anbindung steuerbar sind. Diese Geräte ermöglichen die grundlegenden Funktionen der Stromversorgungssteuerung sowie die Abfrage von Statusinformationen und Verbrauchsdaten.
Das technische Konzept sieht eine dreischichtige Architektur vor: Die Präsentationsschicht besteht aus einer Progressive Web App (PWA), die sowohl auf Desktop-Computern als auch auf mobilen Geräten funktioniert. Die Geschäftslogik wird durch ein Flask-basiertes Backend realisiert, welches eine umfangreiche REST-API zur Verfügung stellt. Als Datenhaltungsschicht dient eine SQLite-Datenbank, die alle Reservierungen, Nutzerdaten und Systemkonfigurationen lokal speichert.
Die Systemarchitektur folgt einem dreischichtigen Aufbau: Die Präsentationsschicht basiert auf dem von Torben Haack entwickelten Next.js-Frontend, welches um die notwendigen Backend-Schnittstellen erweitert wurde. Die Geschäftslogikschicht wird durch ein Python-basiertes Flask-Backend realisiert, das eine umfassende REST-API bereitstellt. Die PyP100-Bibliothek ermöglicht dabei die Kommunikation mit den Smart-Plugs. Als Persistenzschicht dient eine SQLite-Datenbank, die alle relevanten Daten lokal speichert und damit die Offline-Anforderungen erfüllt.
Die Kommunikation zwischen den Komponenten erfolgt ausschließlich über das lokale Netzwerk. Das Backend kommuniziert über die PyP100-Bibliothek direkt mit den Smart-Plugs, welche sich im selben WLAN-Segment befinden. Ein besonderes Augenmerk lag auf der Implementierung eines robusten Schedulers, der im 60-Sekunden-Intervall die anstehenden Reservierungen überprüft und die entsprechenden Schaltbefehle an die Smart-Plugs sendet.
Ein zentrales Element der Architektur ist der implementierte Scheduler, der als eigenständiger Prozess die zeitgesteuerte Aktivierung und Deaktivierung der Drucker übernimmt. Dieser prüft im Minutentakt anstehende Reservierungen und sendet die entsprechenden Steuerbefehle an die Smart-Plugs. Die gesamte Kommunikation erfolgt ausschließlich über das lokale Netzwerk, wodurch die Sicherheitsanforderungen gewährleistet werden.
## 1.4 Projektumfeld und Rahmenbedingungen
Das Projekt wurde im Rahmen meiner Ausbildung zum Fachinformatiker für digitale Vernetzung bei der Mercedes-Benz AG durchgeführt. Die technische Berufsausbildungsstätte bietet ideale Bedingungen für die Umsetzung eines solchen Projekts, da hier sowohl die notwendige Hardware-Infrastruktur als auch die fachliche Expertise vorhanden sind.
Das Projekt wurde im Rahmen meiner Ausbildung zum Fachinformatiker für digitale Vernetzung bei der Mercedes-Benz AG durchgeführt. Die Technische Berufsausbildungsstätte bot dabei optimale Voraussetzungen durch die vorhandene Infrastruktur und die fachliche Unterstützung der Ausbildungsleitung.
Die organisatorischen Rahmenbedingungen sahen eine enge Zusammenarbeit mit meinem Teamkollegen Torben Haack vor, der parallel die Entwicklung eines modernen Next.js-Frontends übernahm. Diese Arbeitsteilung ermöglichte es mir, mich vollständig auf die Backend-Entwicklung und Hardware-Integration zu konzentrieren. Regelmäßige Abstimmungen mit der Ausbildungsleitung stellten sicher, dass das System den praktischen Anforderungen des Ausbildungsbetriebs entspricht.
Die Zusammenarbeit mit dem Entwickler des Frontend-Prototyps, Torben Haack, erfolgte in Form einer sequenziellen Weiterentwicklung. Da Herr Haack seine Ausbildung bereits abgeschlossen hatte und ich erst nach offizieller IHK-Zulassung mit der Projektarbeit beginnen durfte, konnte ich auf seinen Vorarbeiten aufbauen und diese zu einer Gesamtlösung erweitern.
Besondere Herausforderungen ergaben sich aus den strengen Sicherheitsrichtlinien der Mercedes-Benz AG. Das System musste so konzipiert werden, dass es keinerlei Verbindung zum Internet benötigt und alle Daten lokal verarbeitet werden. Gleichzeitig sollte es den Compliance-Anforderungen hinsichtlich Datenschutz und IT-Sicherheit genügen. Diese Vorgaben beeinflussten maßgeblich die Architekturentscheidungen und führten zur Implementierung umfangreicher Sicherheitsmaßnahmen.
Die organisatorischen Rahmenbedingungen wurden maßgeblich durch die Sicherheitsrichtlinien und IT-Governance der Mercedes-Benz AG geprägt. Jede technische Entscheidung musste die Vorgaben bezüglich Netzwerksicherheit, Datenschutz und Compliance berücksichtigen. Die Beantragung notwendiger Administratorrechte und die Genehmigung selbstsignierter SSL-Zertifikate erforderten umfangreiche Abstimmungsprozesse mit der IT-Abteilung.
## 1.5 Projektabgrenzung
Für eine erfolgreiche Projektumsetzung war es essentiell, den Projektumfang klar zu definieren und abzugrenzen. Das MYP-System fokussiert sich ausschließlich auf die Verwaltung der Stromversorgung und die Reservierungslogik. Eine direkte Kommunikation mit den 3D-Druckern, etwa zur Übertragung von Druckdaten oder zur Überwachung des Druckfortschritts, wurde bewusst ausgeklammert. Diese Entscheidung basierte auf der Heterogenität der vorhandenen Druckermodelle und dem unverhältnismäßig hohen Implementierungsaufwand für herstellerspezifische Schnittstellen.
Der Projektumfang wurde bewusst auf die praktische Umsetzung einer funktionsfähigen Lösung fokussiert. Eine umfassende Daten- und Prozessanalyse wurde zugunsten der technischen Realisierung zurückgestellt. Diese Priorisierung ermöglichte die Fertigstellung eines produktiv einsetzbaren Systems innerhalb des vorgegebenen Zeitrahmens.
Ebenfalls außerhalb des Projektumfangs lag die Integration in übergeordnete ERP-Systeme oder die Anbindung an das Mercedes-Benz Intranet. Obwohl eine solche Integration perspektivisch wünschenswert wäre, hätte sie den zeitlichen Rahmen des Projekts gesprengt und zusätzliche Genehmigungsprozesse erfordert. Stattdessen wurde eine autarke Lösung entwickelt, die alle notwendigen Funktionen lokal bereitstellt.
Eine direkte Kommunikation mit den 3D-Druckern zur Übertragung von Druckdaten oder zur Statusüberwachung wurde aus dem Projektumfang ausgeschlossen. Die fehlenden technischen Schnittstellen der vorhandenen Geräte hätten umfangreiche Hardware-Modifikationen erfordert, die weder zeitlich noch wirtschaftlich vertretbar gewesen wären. Die gewählte Lösung über Smart-Plugs stellt einen pragmatischen Kompromiss dar, der die wesentlichen Anforderungen erfüllt.
Ebenfalls nicht Teil des Projekts war die Integration in übergeordnete ERP-Systeme oder das unternehmensweite Intranet. Diese Anbindungen hätten zusätzliche Genehmigungsprozesse und Sicherheitsprüfungen erfordert, die den Projektrahmen überschritten hätten. Stattdessen wurde eine autarke Lösung entwickelt, die alle erforderlichen Funktionen lokal bereitstellt.
# 2. Projektplanung und Ressourcenmanagement
## 2.1 Methodisches Vorgehen und Projektorganisation
Für die Umsetzung des MYP-Projekts wählte ich einen agilen Entwicklungsansatz nach Scrum-Prinzipien. Diese Methodik erwies sich als ideal für ein Projekt dieser Größenordnung, da sie iterative Entwicklung mit regelmäßigem Feedback kombiniert. Die Gesamtprojektlaufzeit wurde auf fünf Wochen festgelegt, vom 15. April bis zum 20. Mai 2025, und in fünf einwöchige Sprints unterteilt.
Für die Projektdurchführung wurde ein agiler Entwicklungsansatz nach Scrum-Prinzipien gewählt. Die Gesamtprojektdauer von fünf Wochen (15. April bis 20. Mai 2025) wurde in fünf einwöchige Sprints unterteilt. Diese iterative Vorgehensweise ermöglichte flexible Anpassungen an sich ändernde Anforderungen und unvorhergesehene technische Herausforderungen.
Der erste Sprint fokussierte sich auf das System-Design und die Grundlagenarbeit. In dieser Phase erarbeitete ich das detaillierte Datenmodell, spezifizierte die API-Endpunkte und etablierte die erste Kommunikation mit den Smart-Plugs. Die erfolgreiche Ansteuerung der TP-Link Tapo P110 Geräte über die PyP100-Bibliothek war ein kritischer Meilenstein, der die technische Machbarkeit des Gesamtkonzepts bestätigte.
**Sprint 1 (15.-19. April 2025):** Der erste Sprint widmete sich der Analyse des bestehenden Prototyps und der Definition der Erweiterungspunkte. Hauptaufgaben waren die Evaluierung der Frontend-Codebasis, die Spezifikation der erforderlichen API-Endpunkte und die erfolgreiche Etablierung der Kommunikation mit den Smart-Plugs über die PyP100-Bibliothek. Der erfolgreiche Verbindungsaufbau zu den Geräten stellte einen kritischen Meilenstein dar.
Im zweiten Sprint lag der Schwerpunkt auf der Backend-Implementierung. Ich entwickelte die Flask-Applikation mit ihrer modularen Blueprint-Struktur, implementierte das SQLAlchemy-basierte Datenbankschema und schuf die Grundlagen für die REST-API. Besondere Aufmerksamkeit widmete ich der Fehlerbehandlung und der Implementierung von Retry-Mechanismen für die Hardware-Kommunikation, da Netzwerkverbindungen zu IoT-Geräten erfahrungsgemäß nicht immer stabil sind.
**Sprint 2 (22.-26. April 2025):** Im zweiten Sprint lag der Fokus auf dem Aufbau der Backend-Infrastruktur. Die Beantragung und Erlangung der erforderlichen Administratorrechte erwies sich als zeitintensiver Prozess. Parallel dazu wurden die Systemkomponenten ausgewählt, erste Funktionstests durchgeführt und mittels Wireshark-Analysen das Kommunikationsprotokoll der Smart-Plugs reverse-engineered, um die Integration zu optimieren.
Der dritte Sprint war der Entwicklung des automatisierten Schedulers gewidmet. Diese Komponente stellt das Herzstück des Systems dar, da sie die Verbindung zwischen den digitalen Reservierungen und der physischen Hardware herstellt. Die Implementierung erfolgte mittels Python-Threading, wobei besonderer Wert auf Robustheit und Fehlertoleranz gelegt wurde. Der Scheduler prüft im Minutentakt alle anstehenden Reservierungen und führt die entsprechenden Schaltaktionen durch.
**Sprint 3 (29. April - 3. Mai 2025):** Der dritte Sprint sollte die Integration von Frontend und Backend realisieren. Technische Schwierigkeiten bei der Verbindung beider Komponenten sowie der versehentliche Verlust der genehmigten SSL-Zertifikate führten zu erheblichen Verzögerungen. Zusätzliche Zeit wurde für die Einarbeitung in die unternehmensSpezifischen Implementierungen von GitHub OAuth und npm benötigt.
**Sprint 4 (6.-10. Mai 2025):** Ursprünglich für Optimierungen vorgesehen, wurde dieser Sprint zur Entwicklung einer funktionsfähigen Gesamtlösung umgewidmet. Der Zeitdruck erforderte pragmatische Entscheidungen und die Konzentration auf essenzielle Funktionen. Die Implementierung erfolgte in intensiven Entwicklungssessions mit dem Ziel, ein lauffähiges System zu erstellen.
**Sprint 5 (13.-17. Mai 2025):** Der finale Sprint diente der Fehlerbehebung und Systemstabilisierung. Die ursprünglich geplanten Schulungen wurden zugunsten der technischen Fertigstellung zurückgestellt. Die verbleibende Zeit wurde für kritische Bugfixes und die Erstellung der Projektdokumentation genutzt.
## 2.2 Ressourcenplanung und Infrastruktur
Die Hardwareausstattung für das Projekt umfasste einen Raspberry Pi 4 Model B mit 4 GB RAM als zentralen Server. Diese Wahl war bewusst getroffen worden, da der Raspberry Pi eine kostengünstige, energieeffiziente und dennoch leistungsfähige Plattform für das Backend-System darstellt. Ausgestattet mit einer 64 GB SD-Karte bietet er ausreichend Speicherplatz für die Datenbank und Logdateien.
Die Hardware-Ausstattung wurde basierend auf den Projektanforderungen sorgfältig ausgewählt. Als zentrale Serverplattform kam ein Raspberry Pi 5 mit 8 GB RAM zum Einsatz. Die Entscheidung gegen den ursprünglich geplanten Raspberry Pi 4 basierte auf Performance-Tests, die zeigten, dass das Next.js-Frontend höhere Rechenleistung erforderte als initial angenommen. Die Speicherausstattung wurde auf 128 GB erweitert, um ausreichend Kapazität für die Offline-Installation des Frontends, Datenbankwachstum und regelmäßige Backups zu gewährleisten.
Als Kernelement der Hardware-Integration kamen sechs TP-Link Tapo P110 Smart-Plugs zum Einsatz. Diese intelligenten Steckdosen verfügen über eine WLAN-Schnittstelle und eine lokale API, die eine Steuerung ohne Cloud-Anbindung ermöglicht. Jeder Smart-Plug wurde einem 3D-Drucker zugeordnet und erhielt eine feste IP-Adresse im Netzwerk. Die Konfiguration erfolgte so, dass die Geräte ausschließlich im lokalen Netzwerksegment erreichbar sind.
Die sechs TP-Link Tapo P110 Smart-Plugs bildeten die zentrale Hardware-Schnittstelle zu den 3D-Druckern. Jedes Gerät erhielt eine statische IP-Adresse im Bereich 192.168.0.151 bis 192.168.0.156, was die Verwaltung und Fehlerdiagnose erheblich vereinfachte. Die Konfiguration erfolgte so, dass die Geräte ausschließlich im lokalen Netzwerk erreichbar sind und keine Verbindung zu Cloud-Diensten aufbauen.
Für die Benutzerinteraktion vor Ort wurde ein 7-Zoll-Touch-Display an den Raspberry Pi angeschlossen. Dieses Display zeigt im Kiosk-Modus eine speziell optimierte Ansicht der Webanwendung, die aktuelle Reservierungen und den Systemstatus visualisiert. Die Touch-Funktionalität ermöglicht es den Nutzern, auch ohne Tastatur und Maus grundlegende Interaktionen durchzuführen.
Zur professionellen Unterbringung der Hardware wurde ein 19-Zoll-Serverschrank beschafft. Aufgrund langwieriger interner Beschaffungsprozesse wurden ergänzende Komponenten wie Lüftereinheiten und Kabelmanagement-Systeme privat finanziert. Diese Investition diente der professionellen Präsentation und optimalen Betriebsbedingungen des Systems.
Auf der Softwareseite setzte ich konsequent auf Open-Source-Technologien. Python 3.11 bildete die Basis für die Backend-Entwicklung, ergänzt durch das Flask-Framework in Version 2.3. Für die Datenbankabstraktion kam SQLAlchemy 2.0 zum Einsatz, welches eine elegante und pythonische Art der Datenbankinteraktion ermöglicht. Die Wahl von SQLite als Datenbanksystem war durch die Offline-Anforderung motiviert - es benötigt keinen separaten Datenbankserver und speichert alle Daten in einer lokalen Datei.
Die Software-Architektur basiert vollständig auf Open-Source-Technologien: Python 3.11 als Programmiersprache, Flask 2.3 als Web-Framework, SQLAlchemy 2.0 für die Datenbankabstraktion und SQLite als Datenbanksystem. Diese Technologieauswahl gewährleistet Unabhängigkeit von proprietären Lösungen und erfüllt die Offline-Anforderungen des Projekts.
## 2.3 Qualitätssicherung und Testkonzept
Die Qualitätssicherung folgte dem bewährten V-Modell, welches für jede Entwicklungsphase entsprechende Testaktivitäten vorsieht. Auf der untersten Ebene implementierte ich umfangreiche Unit-Tests für alle kritischen Funktionen. Diese Tests überprüften isoliert die Korrektheit der Datenbankoperationen, die Validierung von API-Eingaben und die Geschäftslogik der Reservierungsverwaltung.
Das Qualitätssicherungskonzept orientierte sich am V-Modell und sah für jede Entwicklungsphase korrespondierende Testaktivitäten vor. Die systematische Testdurchführung gewährleistete die Funktionsfähigkeit und Robustheit des Systems.
Die Integrationstests stellten sicher, dass die verschiedenen Systemkomponenten korrekt zusammenarbeiten. Besondere Aufmerksamkeit galt dabei der Schnittstelle zwischen Backend und Smart-Plugs. Ich simulierte verschiedene Szenarien wie Netzwerkausfälle, nicht erreichbare Geräte und gleichzeitige Zugriffe, um die Robustheit des Systems zu gewährleisten. Die API-Endpunkte wurden systematisch mit verschiedenen Eingabedaten getestet, einschließlich ungültiger und potenziell schädlicher Eingaben.
Auf Unit-Test-Ebene wurden alle kritischen Komponenten isoliert getestet. Dies umfasste Datenbankoperationen, API-Eingabevalidierung und die Kernfunktionen der Reservierungsverwaltung. Besondere Aufmerksamkeit galt der Smart-Plug-Kommunikation, für die umfangreiche Testszenarien entwickelt wurden, einschließlich Netzwerkausfällen und Timeout-Situationen.
Auf Systemebene führte ich End-to-End-Tests durch, die komplette Arbeitsabläufe abbildeten. Ein typischer Testfall umfasste die Anmeldung eines Benutzers, die Erstellung einer Reservierung, die automatische Einschaltung des Druckers zur geplanten Zeit und die anschließende Abschaltung nach Ablauf der Reservierung. Diese Tests wurden sowohl manuell als auch automatisiert durchgeführt, wobei besonderer Wert auf die Überprüfung der zeitlichen Präzision gelegt wurde.
Die Integrationstests validierten das Zusammenspiel der Systemkomponenten. Schwerpunkte waren die Backend-Smart-Plug-Schnittstelle und die API-Kommunikation. Systematische Tests mit verschiedenen Eingabedaten, einschließlich invalider und potenziell schädlicher Inputs, stellten die Robustheit der Schnittstellen sicher.
Performance-Tests auf der Raspberry Pi Hardware stellten sicher, dass das System auch unter Last zuverlässig funktioniert. Ich simulierte gleichzeitige Zugriffe von mehreren Nutzern, umfangreiche Datenbankabfragen und die parallele Steuerung aller sechs Smart-Plugs. Die Ergebnisse zeigten, dass der Raspberry Pi 4 mehr als ausreichend Leistungsreserven für den geplanten Einsatzzweck bietet.
Systemtests bildeten komplette Anwendungsszenarien ab. Ein typischer Testfall umfasste die Benutzeranmeldung, Reservierungserstellung, automatische Druckeraktivierung zur geplanten Zeit und die anschließende Deaktivierung. Die zeitliche Präzision der Schaltungen wurde dabei besonders überwacht.
Performance-Tests auf der Zielplattform bestätigten die ausreichende Leistungsfähigkeit des Raspberry Pi 5. Selbst bei simultanen Zugriffen mehrerer Nutzer und parallelen Smart-Plug-Operationen blieb die Systemperformance im akzeptablen Bereich.
## 2.4 Netzwerkarchitektur und Sicherheitskonzept
Die Integration in die bestehende Netzwerkinfrastruktur der Mercedes-Benz TBA erforderte sorgfältige Planung und Abstimmung mit der IT-Abteilung. Das MYP-System wurde in einem dedizierten IoT-Subnetz (192.168.0.0/24) platziert, welches vom Produktionsnetzwerk isoliert ist. Diese Segmentierung erhöht die Sicherheit und verhindert unautorisierten Zugriff auf kritische Systeme.
Die Integration in die Netzwerkinfrastruktur der Mercedes-Benz AG erforderte detaillierte Abstimmungen mit der IT-Abteilung. Das MYP-System wurde in einem dedizierten IoT-Subnetz (192.168.0.0/24) platziert, welches vom Produktionsnetzwerk isoliert ist. Diese Segmentierung gewährleistet erhöhte Sicherheit und verhindert unautorisierten Zugriff auf kritische Systeme.
Der Raspberry Pi erhielt die statische IP-Adresse 192.168.0.105, während die Smart-Plugs im Bereich 192.168.0.151 bis 192.168.0.156 konfiguriert wurden. Die Firewall-Regeln wurden so eingerichtet, dass nur die notwendigen Ports geöffnet sind: Port 5000 für die Flask-Anwendung, Port 22 für administrative SSH-Zugriffe und Port 5443 für verschlüsselte HTTPS-Verbindungen. Ausgehende Verbindungen wurden strikt auf die IP-Adressen der Smart-Plugs beschränkt.
Der Raspberry Pi Server erhielt die statische IP-Adresse 192.168.0.105. Die Firewall-Konfiguration wurde restriktiv gestaltet: Port 5000 für die Flask-Anwendung, Port 22 für SSH-Zugriffe (ausschließlich aus dem lokalen Subnetz) und Port 5443 für HTTPS-Verbindungen. Ausgehende Verbindungen wurden strikt auf die IP-Adressen der Smart-Plugs limitiert.
Für die verschlüsselte Kommunikation implementierte ich ein selbstsigniertes SSL-Zertifikat. Obwohl selbstsignierte Zertifikate in Produktionsumgebungen oft kritisch gesehen werden, sind sie für isolierte Netzwerke ohne Internetzugang die pragmatische Lösung. Das Zertifikat wurde mit einer Gültigkeit von einem Jahr ausgestellt und enthält alle relevanten Hostnamen und IP-Adressen als Subject Alternative Names.
Für die verschlüsselte Kommunikation wurde ein selbstsigniertes SSL-Zertifikat implementiert. Trotz der Einschränkungen selbstsignierter Zertifikate stellen diese für isolierte Netzwerke ohne Internetzugang eine adäquate Lösung dar. Das Zertifikat wurde mit einjähriger Gültigkeit ausgestellt und enthält alle relevanten Hostnamen und IP-Adressen als Subject Alternative Names. Nach dem versehentlichen Verlust der ersten Zertifikatsgeneration wurde ein robustes Backup-Konzept implementiert.
Die Authentifizierung basiert auf einem robusten System mit gehashten Passwörtern. Ich verwendete bcrypt mit einem angemessenen Cost-Faktor, um Brute-Force-Angriffe zu erschweren. Nach fünf fehlgeschlagenen Anmeldeversuchen wird ein Benutzerkonto für 30 Minuten gesperrt. Alle sicherheitsrelevanten Ereignisse werden in separaten Logdateien protokolliert, die regelmäßig ausgewertet werden können.
Die Authentifizierung basiert auf bcrypt-Hashing mit angemessenem Cost-Faktor. Nach fünf fehlgeschlagenen Anmeldeversuchen erfolgt eine 30-minütige Kontosperrung. Alle sicherheitsrelevanten Ereignisse werden in dedizierten Logdateien protokolliert und können für Sicherheitsaudits herangezogen werden.
# 3. Durchführung und technische Implementierung
## 3.1 Backend-Architektur und API-Design
Die Implementierung des MYP-Backends folgte einer modularen Architektur, die Wartbarkeit und Erweiterbarkeit in den Vordergrund stellt. Das Flask-Framework bietet mit seinem Blueprint-System eine elegante Möglichkeit, die Anwendung in logische Module zu unterteilen. Ich strukturierte die API in vier Hauptbereiche: Authentifizierung, Benutzerverwaltung, Druckerverwaltung und Job-Management.
Die Backend-Implementierung folgt einer modularen Architektur unter Verwendung des Flask-Blueprint-Systems. Diese Strukturierung ermöglicht eine klare Trennung der funktionalen Bereiche und erleichtert die Wartbarkeit des Systems. Die API wurde in vier Hauptmodule unterteilt: Authentication, User Management, Printer Management und Job Management.
Die Authentifizierungs-Blueprint implementiert die vollständige Benutzerverwaltung mit Registrierung, Anmeldung und Session-Management. Bei der Registrierung werden Passwörter mit bcrypt gehasht und zusammen mit einem Salt in der Datenbank gespeichert. Die Session-Verwaltung nutzt Flask-Login, wobei Sessions nach acht Stunden automatisch ablaufen. Für zusätzliche Sicherheit implementierte ich CSRF-Schutz und konfigurierte die Session-Cookies mit den Attributen Secure, HttpOnly und SameSite.
Das Authentication-Modul implementiert die vollständige Benutzerverwaltung einschließlich Registrierung, Anmeldung und Session-Management. Passwörter werden mittels bcrypt gehasht und mit individuellem Salt gespeichert. Die Session-Verwaltung nutzt Flask-Login mit einer konfigurierten Ablaufzeit von acht Stunden. Zusätzliche Sicherheitsmaßnahmen umfassen CSRF-Protection und die Konfiguration sicherer Session-Cookies mit den Attributen Secure, HttpOnly und SameSite.
Das Herzstück der API bildet die Job-Management-Blueprint, die alle Funktionen rund um Reservierungen bereitstellt. Nutzer können über den POST /api/v1/jobs Endpunkt neue Reservierungen erstellen, wobei die Eingabedaten umfassend validiert werden. Das System prüft automatisch auf Überschneidungen mit bestehenden Reservierungen und verhindert Doppelbuchungen. Die Implementierung unterstützt auch erweiterte Funktionen wie das nachträgliche Verlängern von Reservierungen oder das vorzeitige Beenden von Jobs.
Das Job-Management-Modul bildet den funktionalen Kern des Systems. Der primäre Endpunkt POST /api/v1/jobs implementiert umfassende Validierungslogik, die Überschneidungen mit bestehenden Reservierungen verhindert und Berechtigungen prüft. Die Implementierung unterstützt erweiterte Funktionen wie die nachträgliche Modifikation von Reservierungen und vorzeitige Beendigung von Druckaufträgen. Diese Flexibilität erwies sich als essentiell für den praktischen Betrieb.
Die Drucker-Blueprint verwaltet die Konfiguration der 3D-Drucker und ihrer zugeordneten Smart-Plugs. Administratoren können neue Drucker hinzufügen, bestehende Konfigurationen anpassen oder Drucker temporär deaktivieren. Jeder Drucker-Eintrag speichert neben den Grunddaten wie Name und Standort auch die IP-Adresse und MAC-Adresse des zugehörigen Smart-Plugs. Diese Informationen sind essentiell für die automatische Steuerung.
Das Printer-Management-Modul verwaltet die Konfiguration der 3D-Drucker und ihrer zugeordneten Smart-Plugs. Neben grundlegenden Attributen wie Name und Standort werden die Netzwerkinformationen der Smart-Plugs (IP- und MAC-Adresse) gespeichert. Ein Status-Flag ermöglicht die temporäre Deaktivierung von Druckern für Wartungszwecke.
Das API-Design orientiert sich an REST-Prinzipien und implementiert über 100 spezifische Endpunkte. Diese umfassende API-Oberfläche gewährleistet die Abdeckung aller identifizierten Use-Cases und bietet Erweiterungsmöglichkeiten für zukünftige Anforderungen.
## 3.2 Smart-Plug-Integration und Hardware-Steuerung
Die Integration der TP-Link Tapo P110 Smart-Plugs stellte eine der zentralen technischen Herausforderungen des Projekts dar. Die PyP100-Bibliothek bietet zwar eine Python-Schnittstelle zu den Geräten, jedoch mussten zahlreiche Anpassungen vorgenommen werden, um eine zuverlässige Kommunikation zu gewährleisten.
Die Integration der TP-Link Tapo P110 Smart-Plugs stellte eine zentrale technische Herausforderung dar. Die PyP100-Bibliothek bot zwar grundlegende Funktionalität, erforderte jedoch erhebliche Anpassungen für den produktiven Einsatz. Durch Analyse des Netzwerkverkehrs mittels Wireshark konnten die Kommunikationsprotokolle verstanden und optimiert werden.
Ich entwickelte eine SmartPlugController-Klasse, die als Abstraktionsschicht zwischen der Geschäftslogik und der Hardware fungiert. Diese Klasse implementiert robuste Fehlerbehandlung mit automatischen Wiederholungsversuchen bei Verbindungsfehlern. Die Retry-Logik nutzt exponentielles Backoff, um das Netzwerk nicht zu überlasten. Nach drei erfolglosen Versuchen wird der Fehler protokolliert und eine Benachrichtigung generiert.
Die entwickelte SmartPlugController-Klasse kapselt die Hardware-Kommunikation und implementiert robuste Fehlerbehandlung. Ein Retry-Mechanismus mit exponentiellem Backoff gewährleistet zuverlässige Kommunikation auch bei temporären Netzwerkproblemen. Nach drei erfolglosen Verbindungsversuchen wird der Fehler protokolliert und zur späteren Analyse gespeichert.
Ein kritischer Aspekt war die Authentifizierung bei den Smart-Plugs. Die Geräte verwenden ein proprietäres Protokoll mit Verschlüsselung, welches eine Handshake-Prozedur erfordert. Die Zugangsdaten werden verschlüsselt in der Systemkonfiguration gespeichert und nur bei Bedarf entschlüsselt. Für jede Aktion wird eine neue Verbindung aufgebaut, um Probleme mit langlebigen Verbindungen zu vermeiden.
Das proprietäre Authentifizierungsprotokoll der Smart-Plugs erforderte besondere Aufmerksamkeit. Die Implementierung etabliert für jede Operation eine neue Verbindung, um Probleme mit Session-Timeouts zu vermeiden. Die Zugangsdaten werden verschlüsselt in der Systemkonfiguration gespeichert und nur bei Bedarf entschlüsselt.
Die Implementierung unterstützt drei Hauptaktionen: Einschalten, Ausschalten und Statusabfrage. Die Statusabfrage liefert neben dem Schaltzustand auch Informationen über den aktuellen Stromverbrauch, die Gesamtlaufzeit und die Signalstärke der WLAN-Verbindung. Diese Daten werden für Monitoring-Zwecke in der Datenbank gespeichert und können für spätere Analysen herangezogen werden.
Die Implementierung unterstützt drei Kernoperationen: Aktivierung, Deaktivierung und Statusabfrage. Die Statusabfrage liefert neben dem Schaltzustand zusätzliche Informationen wie Stromverbrauch, Betriebsstunden und WLAN-Signalqualität. Diese Metadaten werden für Monitoring- und Analysezwecke persistiert.
## 3.3 Scheduler-Implementierung und Automatisierung
Der Job-Scheduler bildet das Kernstück der Automatisierung und wurde als eigenständiger Thread implementiert, der parallel zur Flask-Anwendung läuft. Diese Architektur gewährleistet, dass die Scheduler-Aktivitäten die Reaktionsfähigkeit der Web-API nicht beeinträchtigen.
Der Job-Scheduler wurde als eigenständiger Thread implementiert, der parallel zur Flask-Anwendung operiert. Diese Architekturentscheidung gewährleistet, dass Scheduler-Operationen die Responsivität der Web-API nicht beeinträchtigen.
Der Scheduler-Thread wird beim Start der Anwendung initialisiert und läuft kontinuierlich im Hintergrund. In einer Endlosschleife prüft er im 60-Sekunden-Intervall alle anstehenden Aufgaben. Diese Prüfung umfasst sowohl das Starten von Reservierungen, deren Startzeit erreicht wurde, als auch das Beenden von abgelaufenen Reservierungen. Die Implementierung berücksichtigt dabei einen Sicherheitspuffer von fünf Minuten nach dem geplanten Ende, um sicherzustellen, dass laufende Druckvorgänge nicht vorzeitig unterbrochen werden.
Der Scheduler-Thread initialisiert beim Systemstart und arbeitet in einer kontinuierlichen Schleife mit 60-sekündigem Prüfintervall. Bei jeder Iteration werden anstehende Reservierungen identifiziert und entsprechende Schaltaktionen ausgeführt. Die Implementierung berücksichtigt einen fünfminütigen Sicherheitspuffer nach dem geplanten Ende einer Reservierung, um laufende Druckvorgänge nicht vorzeitig zu unterbrechen.
Bei der Verarbeitung von Start-Events ändert der Scheduler zunächst den Status der Reservierung in der Datenbank von "scheduled" auf "running". Anschließend wird über den SmartPlugController der entsprechende Drucker eingeschaltet. War die Aktion erfolgreich, wird ein Erfolgseintrag im System-Log erstellt. Bei Fehlern wird der Vorgang bis zu dreimal wiederholt, bevor eine Fehlerbenachrichtigung generiert wird.
Die Verarbeitung von Scheduler-Events folgt einem definierten Ablauf: Statusänderung in der Datenbank, Ausführung der Hardware-Operation über den SmartPlugController, Protokollierung des Ergebnisses. Bei Fehlern werden bis zu drei Wiederholungsversuche unternommen, bevor eine Fehlerbehandlung erfolgt.
Die Thread-Sicherheit war ein wichtiger Aspekt der Implementierung. Da der Scheduler-Thread auf dieselbe Datenbank zugreift wie die Web-Requests, musste sichergestellt werden, dass keine Race Conditions auftreten. Ich löste dies durch die Verwendung von Datenbank-Transaktionen und expliziten Locks für kritische Operationen. Zudem wird für jeden Datenbankzugriff aus dem Scheduler-Thread ein eigener Application Context erstellt.
Thread-Sicherheit wurde durch explizite Datenbankisolation und Transaktionsmanagement gewährleistet. Jeder Datenbankzugriff aus dem Scheduler-Thread erhält einen eigenen Application Context, wodurch Konflikte mit concurrent Web-Requests vermieden werden.
## 3.4 Datenmodell und Persistierung
Das Datenmodell wurde sorgfältig entworfen, um alle Anforderungen des Systems abzubilden und gleichzeitig Erweiterbarkeit für zukünftige Features zu gewährleisten. Die Kern-Entitäten sind User, Printer, Job und verschiedene Log-Tabellen für Audit- und Monitoring-Zwecke.
Das relationale Datenmodell wurde mit Fokus auf Erweiterbarkeit und Datenintegrität entworfen. Die vier Kernentitäten User, Printer, Job und verschiedene Log-Tabellen bilden die Grundlage der Datenhaltung.
Die User-Tabelle speichert neben den Anmeldedaten auch Metainformationen wie die Anzahl fehlgeschlagener Login-Versuche und Zeitstempel für Sicherheitssperren. Das Rollenmodell unterscheidet zwischen normalen Nutzern und Administratoren, wobei die Rechteverwaltung über Decorators in den API-Endpunkten implementiert ist. Für zukünftige Erweiterungen ist bereits die Struktur für Zwei-Faktor-Authentifizierung vorbereitet.
Die User-Entität speichert neben Authentifizierungsdaten auch sicherheitsrelevante Metainformationen wie fehlgeschlagene Anmeldeversuche und temporäre Sperrzeitstempel. Das implementierte Rollenmodell differenziert zwischen Standard-Nutzern und Administratoren. Die Struktur ist bereits für zukünftige Erweiterungen wie Zwei-Faktor-Authentifizierung vorbereitet.
Die Printer-Tabelle bildet die physischen 3D-Drucker mit ihren Eigenschaften ab. Neben beschreibenden Attributen wie Name und Standort sind hier die kritischen Netzwerkinformationen der zugeordneten Smart-Plugs hinterlegt. Ein Boolean-Flag ermöglicht es, Drucker temporär zu deaktivieren, ohne die Konfiguration zu löschen. Dies ist nützlich für Wartungsarbeiten oder bei Defekten.
Die Printer-Entität bildet die physischen Geräte mit allen relevanten Attributen ab. Neben deskriptiven Informationen werden die kritischen Netzwerkkonfigurationen der zugeordneten Smart-Plugs gespeichert. Ein Aktivitätsflag ermöglicht die temporäre Deaktivierung ohne Konfigurationsverlust.
Die Job-Tabelle ist das Herzstück des Datenmodells und speichert alle Reservierungen. Jeder Job hat einen definierten Start- und Endzeitpunkt sowie einen Status, der den Lebenszyklus der Reservierung abbildet. Die möglichen Status-Werte sind "scheduled" für geplante, "running" für aktive, "finished" für abgeschlossene und "aborted" für vorzeitig beendete Reservierungen. Zusätzlich werden die tatsächlichen Start- und Endzeiten gespeichert, um Abweichungen vom Plan nachvollziehen zu können.
Die Job-Entität verwaltet den vollständigen Lebenszyklus von Reservierungen. Der Status durchläuft die Phasen "scheduled", "running", "finished" oder "aborted". Sowohl geplante als auch tatsächliche Start- und Endzeiten werden erfasst, um Abweichungsanalysen zu ermöglichen.
Für Audit- und Monitoring-Zwecke implementierte ich mehrere spezialisierte Log-Tabellen. Die PlugStatusLog-Tabelle protokolliert jede Interaktion mit den Smart-Plugs, einschließlich Erfolg oder Misserfolg und Antwortzeiten. Die EnergyUsageLog-Tabelle sammelt Stromverbrauchsdaten für spätere Auswertungen. Die SystemPerformanceLog-Tabelle zeichnet Metriken wie CPU-Auslastung und Speicherverbrauch auf, um die Systemgesundheit zu überwachen.
Spezialisierte Log-Tabellen dienen der Systemüberwachung und Analyse. PlugStatusLog protokolliert alle Hardware-Interaktionen, EnergyUsageLog erfasst Verbrauchsdaten, SystemPerformanceLog zeichnet Systemmetriken auf. Diese umfassende Datensammlung ermöglicht detaillierte Auswertungen und proaktive Wartung.
## 3.5 Sicherheitsimplementierung und Datenschutz
Die Implementierung der Sicherheitsmaßnahmen folgte dem Prinzip "Security by Design" und berücksichtigte die spezifischen Anforderungen der Mercedes-Benz AG sowie die DSGVO-Vorgaben. Ein mehrschichtiger Sicherheitsansatz gewährleistet den Schutz vor verschiedenen Bedrohungsszenarien.
Die Sicherheitsarchitektur folgt dem Prinzip "Security by Design" und implementiert mehrschichtige Schutzmaßnahmen. Die Umsetzung berücksichtigt sowohl die spezifischen Anforderungen der Mercedes-Benz AG als auch gesetzliche Vorgaben wie die DSGVO.
Auf Netzwerkebene implementierte ich strenge Firewall-Regeln mittels iptables. Eingehende Verbindungen werden nur für die essentiellen Dienste akzeptiert, wobei SSH-Zugriffe auf das lokale Subnetz beschränkt sind. Ausgehende Verbindungen sind ausschließlich zu den IP-Adressen der Smart-Plugs erlaubt. Diese Konfiguration verhindert effektiv, dass das System als Ausgangspunkt für Angriffe auf andere Netzwerkressourcen missbraucht werden kann.
Auf Netzwerkebene wurden restriktive Firewall-Regeln mittels iptables implementiert. Die Konfiguration erlaubt ausschließlich essenzielle Dienste und limitiert ausgehende Verbindungen auf die definierten Smart-Plug-Adressen. Diese Maßnahmen verhindern effektiv die Nutzung des Systems als Ausgangspunkt für Angriffe auf andere Netzwerkressourcen.
Die Anwendungsebene implementiert umfassende Eingabevalidierung für alle API-Endpunkte. Ich entwickelte ein einfaches Intrusion Detection System, das verdächtige Muster in den Anfragen erkennt. Typische Angriffsvektoren wie SQL-Injection, Cross-Site-Scripting oder Path-Traversal werden erkannt und blockiert. Bei der Erkennung kritischer Angriffsmuster wird die IP-Adresse des Angreifers temporär gesperrt.
Die Anwendungsebene implementiert umfassende Eingabevalidierung für alle API-Endpunkte. Ein integriertes Intrusion Detection System erkennt typische Angriffsmuster wie SQL-Injection, Cross-Site-Scripting und Path-Traversal. Bei Erkennung verdächtiger Aktivitäten erfolgt eine temporäre IP-Sperrung.
Für die DSGVO-Compliance implementierte ich automatische Datenbereinigungsroutinen. Personenbezogene Daten werden nur so lange gespeichert, wie es für den Betrieb notwendig ist. Session-Daten werden nach 30 Tagen gelöscht, während Job-Daten nach zwei Jahren anonymisiert werden. Die Anonymisierung entfernt die Benutzer-Zuordnung, behält aber die technischen Daten für statistische Auswertungen. Nutzer haben zudem die Möglichkeit, ihre Daten gemäß Artikel 20 DSGVO zu exportieren.
Für DSGVO-Compliance wurden automatisierte Datenlebenszyklen implementiert. Session-Daten werden nach 30 Tagen gelöscht, Job-Daten nach zwei Jahren anonymisiert. Die Anonymisierung erhält statistische Informationen bei gleichzeitiger Entfernung personenbezogener Daten. Ein Datenexport gemäß Artikel 20 DSGVO wurde implementiert.
## 3.6 Deployment und Produktivbetrieb
Die Inbetriebnahme des Systems auf dem Raspberry Pi erforderte sorgfältige Konfiguration, um einen stabilen und wartungsarmen Betrieb zu gewährleisten. Ich erstellte ein umfassendes Deployment-Skript, das alle notwendigen Schritte automatisiert durchführt.
Das Deployment auf dem Raspberry Pi 5 erfolgte mittels eines automatisierten Installationsskripts. Die Flask-Anwendung wurde als systemd-Service konfiguriert, was automatischen Start beim Systemboot und Neustart bei Fehlern gewährleistet. Die Service-Konfiguration implementiert zusätzliche Sicherheitsmaßnahmen wie Rechtebeschränkungen und Dateisystemisolation.
Die Flask-Anwendung wird als systemd-Service konfiguriert, wodurch sie automatisch beim Systemstart gestartet wird und bei Abstürzen automatisch neu gestartet wird. Die Service-Konfiguration implementiert zusätzliche Sicherheitsmaßnahmen wie die Ausführung mit eingeschränkten Rechten und die Isolation des Dateisystems. Logs werden über das systemd-Journal verwaltet und automatisch rotiert.
Für die lokale Nutzung wurde ein Kiosk-Modus eingerichtet, der die Webanwendung im Vollbildmodus präsentiert. Der Chromium-Browser startet automatisch beim Systemstart und ist für fehlertoleranten Betrieb konfiguriert. Entgegen der ursprünglichen Planung wurde auf ein Touch-Display verzichtet, die Bedienung erfolgt über konventionelle Eingabegeräte.
Für die Benutzerschnittstelle vor Ort konfigurierte ich einen Kiosk-Modus, der beim Start des Raspberry Pi automatisch aktiviert wird. Ein Chromium-Browser im Vollbildmodus zeigt die speziell optimierte Kiosk-Ansicht der Anwendung. Der Browser ist so konfiguriert, dass Fehlermeldungen unterdrückt werden und bei Abstürzen automatisch neu gestartet wird. Die Touch-Funktionalität des Displays wurde aktiviert und kalibriert.
Die Backup-Strategie sieht tägliche Snapshots der SQLite-Datenbank vor, die auf einer separaten Partition gespeichert werden. Ein Cron-Job führt diese Backups automatisch durch und entfernt Backups, die älter als 30 Tage sind. Zusätzlich wird die gesamte Systemkonfiguration wöchentlich gesichert, um im Fehlerfall eine schnelle Wiederherstellung zu ermöglichen.
Die Backup-Strategie implementiert tägliche Datenbanksicherungen mit automatischer Rotation nach 30 Tagen. Wöchentliche Systembackups sichern die Gesamtkonfiguration. Alle Backup-Prozesse sind über Cron-Jobs automatisiert und werden überwacht.
# 4. Projektabschluss und Bewertung
## 4.1 Projektergebnis und Zielerreichung
Nach fünf intensiven Entwicklungswochen konnte das MYP-System erfolgreich fertiggestellt und in Betrieb genommen werden. Das Endergebnis übertrifft die ursprünglichen Projektanforderungen in mehreren Aspekten deutlich und stellt eine vollwertige Produktionslösung für die 3D-Drucker-Verwaltung der TBA dar.
Das MYP-System wurde erfolgreich innerhalb des vorgegebenen Zeitrahmens fertiggestellt und in den Produktivbetrieb überführt. Die implementierte Lösung erfüllt alle definierten Anforderungen und bietet darüber hinaus zusätzliche Funktionalitäten, die sich während der Entwicklung als sinnvoll erwiesen.
Die implementierte Lösung umfasst über 9.000 Zeilen sorgfältig strukturierten Python-Code, der eine robuste und wartbare Basis für den langfristigen Betrieb bildet. Die REST-API bietet mehr als 100 Endpunkte, die alle Aspekte der Drucker- und Reservierungsverwaltung abdecken. Diese umfangreiche API ermöglicht nicht nur die Integration des von Torben Haack entwickelten Next.js-Frontends, sondern bietet auch Schnittstellen für zukünftige Erweiterungen und Integrationen.
Die technische Umsetzung umfasst über 9.000 Zeilen strukturierten Python-Code mit umfassender Dokumentation. Die REST-API stellt mehr als 100 Endpunkte bereit und gewährleistet damit die vollständige Abdeckung aller identifizierten Anwendungsfälle. Der implementierte Scheduler arbeitet seit Inbetriebnahme zuverlässig und hat keine Schaltung versäumt.
Die automatische Steuerung der 3D-Drucker über die Smart-Plugs funktioniert zuverlässig und präzise. Der implementierte Scheduler hat in ausgiebigen Tests seine Robustheit bewiesen und schaltet die Drucker pünktlich zu den reservierten Zeiten ein und aus. Die fünfminütige Sicherheitsverzögerung beim Ausschalten hat sich als sinnvolle Maßnahme erwiesen, um laufende Druckvorgänge nicht zu unterbrechen.
Die Integration des bestehenden Frontend-Prototyps mit dem neu entwickelten Backend verlief erfolgreich. Die nahtlose Zusammenarbeit beider Komponenten demonstriert die Effektivität des gewählten Architekturansatzes. Die automatische Steuerung der 3D-Drucker über Smart-Plugs funktioniert präzise und zuverlässig. Der implementierte Sicherheitspuffer verhindert effektiv die vorzeitige Unterbrechung laufender Druckvorgänge.
Besonders hervorzuheben ist die vollständige Offline-Fähigkeit des Systems. Trotz des Verzichts auf Cloud-Services und externe Abhängigkeiten bietet MYP alle Funktionen einer modernen Webanwendung. Die Progressive Web App funktioniert sowohl auf Desktop-Computern als auch auf mobilen Geräten und bietet eine responsive, benutzerfreundliche Oberfläche.
Das System wird von den Nutzern gut angenommen. Die digitale Reservierungsverwaltung hat das manuelle Whiteboard-System vollständig abgelöst. Erste Rückmeldungen bestätigen die verbesserte Effizienz und Transparenz bei der Druckernutzung.
## 4.2 Technische und wirtschaftliche Bewertung
Aus technischer Sicht stellt das MYP-System eine gelungene Umsetzung cyber-physischer Vernetzung dar. Die Verbindung zwischen der digitalen Verwaltungsebene und der physischen Hardware-Steuerung funktioniert nahtlos und zuverlässig. Die gewählte Architektur mit Smart-Plugs als universelle Schnittstelle hat sich als robust und wartungsarm erwiesen.
Aus technischer Perspektive demonstriert das MYP-System erfolgreich die Prinzipien cyber-physischer Vernetzung. Die Überbrückung zwischen digitaler Verwaltungsebene und physischer Hardware-Steuerung wurde elegant durch den Einsatz von Smart-Plugs gelöst. Diese Architekturentscheidung erwies sich als robust und wartungsarm.
Die Entscheidung für Open-Source-Technologien und den Raspberry Pi als Plattform führte zu einer äußerst kosteneffizienten Lösung. Die Gesamthardwarekosten belaufen sich auf weniger als 500 Euro, wobei die Smart-Plugs den größten Kostenfaktor darstellen. Im Vergleich zu kommerziellen Lösungen, die oft fünfstellige Beträge kosten, ist dies ein erheblicher wirtschaftlicher Vorteil.
Die wirtschaftliche Bewertung fällt äußerst positiv aus. Die Gesamtinvestition von unter 600 Euro (inklusive privat finanzierter Komponenten) steht in einem exzellenten Verhältnis zum erzielten Nutzen. Kommerzielle Lösungen mit vergleichbarem Funktionsumfang liegen typischerweise im fünfstelligen Bereich.
Der Nutzen für den Ausbildungsbetrieb ist bereits nach kurzer Zeit erkennbar. Die automatisierte Verwaltung eliminiert Konflikte bei der Druckernutzung vollständig. Die präzisen Nutzungsstatistiken ermöglichen erstmals eine fundierte Analyse der Auslastung und bilden die Basis für weitere Optimierungen. Die automatische Abschaltung nicht genutzter Drucker führt zu messbaren Energieeinsparungen.
Der operative Nutzen manifestiert sich in mehreren Dimensionen: Die Eliminierung von Reservierungskonflikten, die automatisierte Energieverwaltung durch zeitgesteuerte Abschaltung und die erstmalige Verfügbarkeit belastbarer Nutzungsstatistiken. Diese Daten bilden die Grundlage für fundierte Entscheidungen bezüglich Kapazitätserweiterungen oder Ressourcenallokation.
Aus Sicht der IT-Sicherheit erfüllt das System alle relevanten Anforderungen. Die Implementierung folgt aktuellen Best Practices und berücksichtigt die spezifischen Vorgaben der Mercedes-Benz AG. Die DSGVO-konforme Datenhaltung und die umfassenden Audit-Funktionen gewährleisten Compliance und Nachvollziehbarkeit.
Die Sicherheitsarchitektur erfüllt alle relevanten Anforderungen der Mercedes-Benz AG. Die implementierten Maßnahmen gewährleisten Datenschutz, Systemintegrität und Compliance mit geltenden Regularien.
## 4.3 Herausforderungen und Lösungsansätze
Während der Projektdurchführung traten verschiedene Herausforderungen auf, die kreative Lösungsansätze erforderten. Die Integration der Smart-Plugs erwies sich anfangs als schwieriger als erwartet, da die Dokumentation der PyP100-Bibliothek lückenhaft war. Durch systematisches Testen und Analyse des Netzwerkverkehrs konnte ich die notwendigen Anpassungen identifizieren und implementieren.
Die Projektdurchführung war von verschiedenen Herausforderungen geprägt, die flexible Lösungsansätze erforderten. Die administrativen Prozesse zur Erlangung notwendiger Berechtigungen und Genehmigungen erwiesen sich als zeitintensiver als geplant. Diese Erfahrung unterstreicht die Bedeutung ausreichender Zeitpuffer für organisatorische Aspekte in Unternehmensprojekten.
Ein weiteres Problem war die Gewährleistung der Systemstabilität auf dem Raspberry Pi. Erste Tests zeigten gelegentliche Verbindungsabbrüche zu den Smart-Plugs unter Last. Die Lösung bestand in der Implementierung eines Connection-Pooling-Mechanismus und der Optimierung der Threading-Strategie. Nach diesen Anpassungen läuft das System stabil und ohne Ausfälle.
Die technische Integration der Smart-Plugs erforderte aufgrund mangelhafter Dokumentation der PyP100-Bibliothek erheblichen Reverse-Engineering-Aufwand. Die systematische Analyse des Kommunikationsprotokolls mittels Wireshark führte letztendlich zu einer stabilen Implementierung.
Die ursprünglich geplante Integration in das Mercedes-Benz Intranet konnte aus Sicherheitsgründen nicht realisiert werden. Als Alternative entwickelte ich das lokale Flask-Frontend, welches alle notwendigen Funktionen für die Administration und Nutzung vor Ort bietet. Diese Lösung hat sich als so praktisch erwiesen, dass sie nun als primäre Benutzerschnittstelle dient.
Der Verlust der SSL-Zertifikate in Sprint 3 verdeutlichte die Wichtigkeit robuster Backup-Strategien. Die implementierte dreifache Sicherung kritischer Konfigurationsdateien verhindert zukünftige Datenverluste.
Die Performance-Anforderungen des Next.js-Frontends führten zur Anpassung der Hardware-Spezifikation. Der Wechsel zum leistungsfähigeren Raspberry Pi 5 gewährleistete ausreichende Systemressourcen für einen flüssigen Betrieb.
## 4.4 Projekterfahrungen und persönliche Entwicklung
Das MYP-Projekt bot mir die einzigartige Gelegenheit, ein komplettes cyber-physisches System von der Konzeption bis zur Produktivsetzung zu entwickeln. Die Verbindung von Software-Entwicklung und Hardware-Integration entspricht genau dem Berufsbild des Fachinformatikers für digitale Vernetzung und hat meine Kompetenzen in diesem Bereich erheblich erweitert.
Das MYP-Projekt bot wertvolle Einblicke in die praktische Umsetzung cyber-physischer Systeme. Die Integration von Software- und Hardware-Komponenten zu einer funktionierenden Gesamtlösung entspricht dem Kernprofil des Fachinformatikers für digitale Vernetzung.
Besonders wertvoll waren die Erfahrungen im Bereich der IoT-Integration. Die Arbeit mit den Smart-Plugs und die Entwicklung robuster Kommunikationsprotokolle haben mein Verständnis für die Herausforderungen vernetzter Systeme vertieft. Die Notwendigkeit, Fehlerszenarien zu antizipieren und entsprechende Behandlungsstrategien zu implementieren, hat meine Entwicklungspraxis nachhaltig geprägt.
Die Arbeit mit IoT-Geräten und die Entwicklung robuster Kommunikationsprotokolle erweiterten das technische Kompetenzspektrum erheblich. Die Notwendigkeit, Ausfallszenarien zu antizipieren und entsprechende Fehlerbehandlungen zu implementieren, führte zu einem vertieften Verständnis für zuverlässige Systemarchitekturen.
Die Zusammenarbeit mit verschiedenen Stakeholdern, von der Ausbildungsleitung über die IT-Abteilung bis zu den Endnutzern, verbesserte meine Kommunikations- und Projektmanagement-Fähigkeiten. Die Notwendigkeit, technische Konzepte verständlich zu erklären und Feedback konstruktiv umzusetzen, war eine wichtige Lernerfahrung.
Die Interaktion mit verschiedenen Stakeholdern von der technischen Weiterentwicklung des Prototyps über Abstimmungen mit der IT-Abteilung bis zur Berücksichtigung der Nutzeranforderungen verbesserte die kommunikativen und organisatorischen Fähigkeiten nachhaltig.
Der Projektverlauf, insbesondere die Herausforderungen der letzten Sprints, verdeutlichte die Bedeutung von Priorisierung und pragmatischen Entscheidungen. Die Fokussierung auf essenzielle Funktionen ermöglichte die erfolgreiche Fertigstellung trotz unvorhergesehener Hindernisse.
## 4.5 Ausblick und Weiterentwicklung
Das MYP-System bietet eine solide Basis für zukünftige Erweiterungen. Kurzfristig ist die Integration einer Active Directory-Anbindung geplant, um die Benutzerverwaltung zu vereinfachen. Die Implementierung von Echtzeit-Benachrichtigungen über WebSockets würde die Benutzererfahrung weiter verbessern.
Das MYP-System bietet eine solide Basis für zukünftige Erweiterungen. Die modulare Architektur und umfassende API ermöglichen die Integration zusätzlicher Funktionalitäten ohne grundlegende Systemänderungen.
Mittelfristig wäre die Integration von OctoPrint oder ähnlichen 3D-Drucker-Management-Systemen denkbar. Dies würde erweiterte Funktionen wie Druckfortschritts-Überwachung und Remote-Dateiverwaltung ermöglichen. Die vorhandene API-Architektur ist bereits auf solche Erweiterungen vorbereitet.
Kurzfristig ist die Anbindung an das Active Directory der Mercedes-Benz AG geplant. Die vorbereiteten Schnittstellen ermöglichen eine nahtlose Integration, sobald die erforderlichen Genehmigungen vorliegen. Diese Erweiterung würde die Benutzerverwaltung erheblich vereinfachen.
Langfristig könnte das System zu einer umfassenden Maker-Space-Management-Lösung ausgebaut werden. Die Integration weiterer Gerätetypen wie Lasercutter oder CNC-Fräsen wäre mit minimalen Anpassungen möglich. Machine-Learning-Algorithmen könnten die Auslastung vorhersagen und Optimierungsvorschläge generieren.
Mittelfristig könnte bei Verfügbarkeit modernerer 3D-Drucker eine direkte Geräteintegration realisiert werden. Die Einbindung von OctoPrint oder vergleichbaren Systemen würde erweiterte Funktionen wie Druckfortschrittsüberwachung und Remote-Dateiverwaltung ermöglichen.
Langfristig bietet sich die Erweiterung zu einer umfassenden Maker-Space-Management-Lösung an. Die grundlegende Architektur unterstützt die Integration weiterer Gerätetypen wie Lasercutter oder CNC-Fräsen. Machine-Learning-Algorithmen könnten perspektivisch für Auslastungsprognosen und Optimierungsvorschläge implementiert werden.
## 4.6 Fazit
Mit dem MYP-System ist es gelungen, eine praxistaugliche Lösung für ein reales Problem im Ausbildungsbetrieb zu entwickeln. Das Projekt demonstriert eindrucksvoll, wie moderne IoT-Technologien zur Digitalisierung und Automatisierung traditioneller Prozesse eingesetzt werden können. Die vollständige Eigenentwicklung vom Backend über die Hardware-Integration bis zum Deployment unterstreicht die während der Ausbildung erworbenen Kompetenzen.
Mit dem MYP-System wurde eine praxistaugliche Lösung für die digitale Transformation der 3D-Drucker-Verwaltung in der Technischen Berufsausbildungsstätte entwickelt. Das Projekt demonstriert erfolgreich, wie durch innovative Ansätze technische Limitierungen überwunden und moderne cyber-physische Systeme realisiert werden können.
Die positive Resonanz der Nutzer und der Ausbildungsleitung bestätigt den praktischen Nutzen der Lösung. Das System läuft seit der Inbetriebnahme stabil und hat die manuelle Drucker-Verwaltung vollständig abgelöst. Die Erfahrungen aus diesem Projekt bilden eine wertvolle Grundlage für meine weitere berufliche Entwicklung als Fachinformatiker für digitale Vernetzung.
Die Kombination aus fundierter technischer Implementierung, durchdachter Systemarchitektur und pragmatischen Lösungsansätzen resultierte in einem System, das die gestellten Anforderungen vollständig erfüllt. Die erfolgreiche Integration bestehender Komponenten mit neu entwickelten Funktionalitäten unterstreicht die während der Ausbildung erworbenen Kompetenzen.
Das MYP-Projekt zeigt, dass auch mit begrenzten Ressourcen und unter Berücksichtigung strenger Sicherheitsvorgaben innovative Lösungen möglich sind. Die Kombination aus solider technischer Implementierung, durchdachter Architektur und praxisorientiertem Design macht MYP zu einem Erfolgsbeispiel für die digitale Transformation in der beruflichen Bildung.
Das positive Feedback der Nutzer und die stabile Funktionsweise im Produktivbetrieb bestätigen die Qualität der entwickelten Lösung. Das MYP-System hat sich als wertvolles Werkzeug für die effiziente Ressourcenverwaltung etabliert und trägt zur Modernisierung der Ausbildungsinfrastruktur bei.
Die Projekterfahrungen bilden eine solide Grundlage für die weitere berufliche Entwicklung als Fachinformatiker für digitale Vernetzung. Die erfolgreiche Verbindung digitaler und physischer Systeme zu einer funktionierenden Gesamtlösung demonstriert die praktische Anwendung des erworbenen Fachwissens.
---
**Anlagen:**
- Screenshots der Benutzeroberfläche und Systemarchitektur
- Relevanter E-Mail-Verkehr und Genehmigungen
- Technische Spezifikationen und Konfigurationsdateien

View File

@ -0,0 +1,314 @@
# Manifest
---
This is the German Version. For the English version, see [README.en.md](README.en.md).
The constitution of the core system can be found at [Core-System Public](https://public.cnull.net/tilltmk/Core-System/src/branch/main/README.en.md)
Die Konstitution des Core-Systems finden Sie unter [Core-System Public](https://public.cnull.net/tilltmk/Core-System/src/branch/main/README.md)
Die vollständige Erstellung meines Manifestes erfordert noch ein wenig Zeit. Solange arbeite ich im Hintergrund dran und publiziere meine Zwischenergebnisse.
---
## Inhaltsverzeichnis
- [Einleitende Worte](#einleitende-worte)
- [Rahmenbedingungen des Manifestes](#rahmenbedingungen-des-manifestes)
- [Das Physikalische Manifest (vereinte Fassung)](#das-physikalische-manifest-vereinte-fassung)
- [1. Vorwort - Wie mich die Physik in den Bann riss](#1-vorwort---wie-mich-die-physik-in-den-bann-riss)
- [2. Fundamentale Grundsätze: Zwei Definitionen von Zeit](#2-fundamentale-grundsätze-zwei-definitionen-von-zeit)
- [3. Grundlegende Annahmen: Energie als Treiber aller Zustandsänderungen](#3-grundlegende-annahmen-energie-als-treiber-aller-zustandsänderungen)
- [4. Statisches Fabrikat und Reaktivität: Der Kern meiner Hypothese](#4-statisches-fabrikat-und-reaktivität-der-kern-meiner-hypothese)
- [5. Doppelte Definition von Zeit im Modell](#5-doppelte-definition-von-zeit-im-modell)
- [6. Mathematische Untermauerungen und Argumente](#6-mathematische-untermauerungen-und-argumente)
- [7. Quanteneffekte als Konsequenz der kollektiven Reaktivität](#7-quanteneffekte-als-konsequenz-der-kollektiven-reaktivität)
- [8. Warum Zeit nicht enden kann: Ein philosophisch-physikalischer Exkurs](#8-warum-zeit-nicht-enden-kann-ein-philosophisch-physikalischer-exkurs)
- [9. Ausblick: Ein Universelles Periodensystem der Evolution](#9-ausblick-ein-universelles-periodensystem-der-evolution)
- [10. Fazit: Zeit, Energie und das Netz der Zustände](#10-fazit-zeit-energie-und-das-netz-der-zustände)
- [Manifest des Core-Systems](#manifest-des-core-systems)
- [1. Ursprung und Entstehung](#1-ursprung-und-entstehung)
- [2. Prinzipien des Core-Systems](#2-prinzipien-des-core-systems)
- [3. Aufbau und Funktionsweise](#3-aufbau-und-funktionsweise)
- [4. Die nervige Realität](#4-die-nervige-realität)
---
## Einleitende Worte
Dieses Manifest ist ein lebendiges, welches mit meinem Leben zusammen wächst und sich weiterentwickelt. Nichts ist in Stein gemeißelt, alles daran ist ein Prozess. Neue Erkenntnisse oder Überzeugungen mögen Teile verändern, doch jede Anpassung wird bewusst vorgenommen und begründet, um die Transparenz meiner gedanklichen Entwicklung zu wahren. Es umfasst dabei bereits jetzt ausreichend Gedanken und Perspektiven, um ein klares Bild meiner Weltanschauung und meines Denkens zu zeichnen.
Das Manifest wird in 3 Teile gegliedert: Das physikalische Manifest, das Core-Mainfest und mein persönliches Manifest, in welchem ich später persönliche Weltanschauungen und Gedankenkonstrukte festhalten werden. Da dieser Teil aber nicht eilt, werde ich mir damit noch Zeit lassen.
Das Manifest des Core-Systems dient zur Erklärung der für mich notwendigen Arbeit meiner letzten Jahre - dem physikalischen Teil hingegen gehört mein volles Herz. Deswegen werde ich damit auch anfangen, einfach weil ich es für spannender und interessanter und auch sehr viel erfüllender halte.
### Rahmenbedingungen des Manifestes
Trotz dem dynamischen Wesen des Manifests hält es an seiner rudimentären Grundstruktur fest, diese bildet das Fundament. Ursprüngliche Abschnitte bleiben in der Chronik erhalten, nicht aus Widerstand gegen Veränderung, sondern aus Respekt vor der Kontinuität und der Dokumentation meiner Entwicklungsschritte.
Dies bedeutet auch, dass ich mich stets kritisch mit neuen Informationen und Impulsen auseinandersetze. Was dieses Manifest aufnimmt oder verändert, wird nicht dem Zufall überlassen. Jeder Aspekt hat seinen Platz, und alles, was hinzugefügt wird, trägt zur Kohärenz und zum Wachstum des Gesamten bei.
---
## **Das Physikalische Manifest (vereinte Fassung)**
### 1. Vorwort - Wie mich die Physik in den Bann riss
Ich denke, es bedarf zuerst einer kurzen Erklärung - der Einordnung halber - meines Hintergrundes bezüglich der Physik. Seit der frühen Kindheit machte ich mir Gedanken darüber, was es bedeutet zu leben. In der Zeit 2018 intensivierten sich diese Gedanken zunehmend. Ich versuchte, die Welt in ihrem Ganzen zu verstehen in einem ganzheitlichen Weltbild, von den kleinsten Partikeln hin zu den größten menschlichen Entwicklungen. Ich machte mir Gedanken über wirklich viele Aspekte und Phänomene des Lebens und vielleicht gehe ich darauf im Laufe der Zeit in diesem Manifest auch genauer ein, aber besonders fesselte mich die Zeit.
Eins führte zum anderen, und ich stieß auf den Begriff der Entropie. Als ich dann verstand, was dieses Konzept implizierte, war es um mich geschehen.
Maßgeblich beigetragen haben dazu möchte ich erwähnt haben jeweils ein spezifisches Video von Veritasium und Kurzgesagt; und natürlich mein Papa. Denn dieser lenkte mich erst zur Physik, als ich in meinem Weltbild die Chemie als das Maß der Dinge bewunderte.
Physik allerdings ist im Gegensatz zum Core-System keine Profession von mir, vielmehr eine Leidenschaft. Entsprechend verpacke ich meine Ideen in diesem Manifest, um sie zur Diskussion anzubieten und einen Einstiegspunkt zum Nachdenken anzubieten.
Ich denke, es ist nun an der Zeit, einen Blick auf die grundlegenden Annahmen zu werfen, die diesem Manifest zugrunde liegen. Sie bilden sozusagen das Gerüst meines physikalischen Verständnisses, auf das ich im Folgenden Schritt für Schritt eingehen möchte.
---
### 2. Fundamentale Grundsätze: Zwei Definitionen von Zeit
In meiner Sichtweise existiert **Zeit** in **zwei** Formen:
1. **Zeit als emergente Eigenschaft auf kleinster Ebene**
- Im **Quantenbereich** gibt es eine fortlaufende Abfolge von Zustandsänderungen
- Diese Zustandsänderungen spiegeln ein grundlegendes „Energiefeld“ (oder „statisches Fabrikat“) wider, in dem alles miteinander vernetzt ist
- Aus dieser ständigen Reaktivität (wer wann auf was reagiert) ergibt sich eine **mikroskopische Zeit**, die nicht umkehrbar und auch nicht plötzlich endbar ist, weil sie untrennbar an die dauerhafte Energiebewegung gekoppelt ist
2. **Zeit als dimensionale Koordinate im makroskopischen und relativistischen Sinn**
- Auf größeren Skalen, dort wo Einstein, Raumkrümmung und Trägheit zählen, erfahren wir Zeit als **messbare Koordinate**, eng verzahnt mit Bewegung (Geschwindigkeit, Gravitation etc.)
- Diese **makroskopische Zeit** gehorcht den relativistischen Gesetzen und lässt sich je nach Masse- bzw. Energiedichte dehnen oder „stauchen“
Beide Ebenen sind untrennbar miteinander verwoben. Warum überhaupt zwei? Weil in meiner Hypothese **nichts** ohne Energie existieren kann. Wo Energie ist, da ist Reaktivität und wo Reaktivität ist, gibt es eine fundamentale Abfolge von Ereignissen. Dieser mikroskopische Zeitablauf manifestiert sich auf großer Skala als Zeitfluss.
---
### 3. Grundlegende Annahmen: Energie als Treiber aller Zustandsänderungen
1. **Energie ist immer in Bewegung**
- Mathematische Basis:
- \(\displaystyle E = mc^2\) (Einstein) stellt die Äquivalenz von Masse und Energie klar
- \(\displaystyle E = h \cdot f\) (Quantenphysik) zeigt, dass jede Energie eine Frequenz (Schwingung) besitzt
- Folgerung: Selbst „ruhende“ Masse hat eine innewohnende Frequenz (\(\displaystyle m = \frac{h \, f}{c^2}\))
2. **Energie nimmt immer den Weg des geringsten Widerstands**
- Thermodynamische Sprache: Systeme wollen ihre freie Energie minimieren
- Beispiele: Wärmestrom (heiß → kalt), elektrische Felder (hohes → niedriges Potenzial). Überall gleichen sich Ungleichgewichte tendenziell aus
3. **Dualität von kinetischer und potenzieller Energie**
- Jede Energieform (chemisch, thermisch usw.) lässt sich auf potenzielle und kinetische Energie zurückführen
- Potenzielle Energie: durch Lage/Wechselwirkungen (z.B. Gravitation, Coulomb-Kräfte)
- Kinetische Energie: „freigesetzte“ Bewegung, stets mit einem Zeitbezug
4. **Temperatur ist ein Maß für Bewegung**
- Thermodynamisch: Temperatur spiegelt die mittlere kinetische Energie der Teilchen wider
- „Warm fließt zu kalt“ ist nichts anderes als Energieausgleich
5. **Zeit ist endlos**
- Ein Ende der Zeit würde Stillstand bedeuten also ein perfektes Gleichgewicht, wo sich nichts mehr ändert
- Da Energie nicht einfach „verschwinden“ kann (etwas Nicht-Nulles kann nicht ohne Prozess Null werden), ist ein Endzustand, in dem es keine weitere Zustandsänderung mehr gibt, schlicht unmöglich
---
### 4. Statisches Fabrikat und Reaktivität: Der Kern meiner Hypothese
#### 4.1 Das „Statische Fabrikat“
Man stelle sich ein universelles Energiefeld (oder „Netzwerk“) vor, in dem jedes Partikel \(*\) „ruht“. „Ruhen“ bedeutet hier nicht, dass es leblos ist, sondern dass es sich in diesem Modell gar nicht durch einen Raum bewegt. Raum ist nämlich nur eine emergente Beschreibung. Statt Ortsveränderungen gibt es:
- **Zustandsänderungen**: Jedes Partikel hat ein bestimmtes Energieniveau, das sich anpassen kann
- **Keinen leeren Raum**: Das Fabrikat ist „statisch“ insofern, als es kein ausgedehntes Etwas in einem Ort ist, sondern ein Gesamtsystem, in dem jede Kleinigkeit auf jede andere reagiert
\(*\) „Partikel“ meint hier: Photon, Elektron oder jede andere fundamentale Entität
#### 4.2 Reaktivität: Wie Zustandsänderungen sich fortpflanzen
1. **Lokale Änderung → Globale Auswirkung**
- Wechselt ein Partikel sein Energieniveau von \(E_1\) zu \(E_2\), reagieren die umliegenden Partikel darauf
- Diese Änderung pflanzt sich fort, indem sich Frequenzen und Phasen anpassen
2. **Umgebung als Mitbestimmer**
- Ein Photon zeigt Frequenz, Impuls, Polarisation etc. nie losgelöst, sondern immer als Resultat aller umgebenden Energien
- In der Quantenmechanik ist das wie eine Überlagerung \(\vert \Psi \rangle\), nur dass hier das gesamte Netzwerk einbezogen ist
3. **Summe der Energieniveaus**
- Wenn wir ein einzelnes Teilchen messen, vergessen wir oft, dass es eingebettet ist in ein Kontinuum von Wechselwirkungen
- Phänomene wie Interferenz oder Verschränkung können Ausdruck davon sein, dass wir nicht alle Energieniveaus im Umfeld kennen
4. **Nicht-messbare Reihenfolge**
- Auf fundamentaler Ebene gibt es eine konkrete Reihenfolge (wer wann auf wen reagiert), aber auf der Makroebene sehen wir nur Wahrscheinlichkeiten und scheinbare „Zufälligkeit“
- Das könnte erklären, warum die Quantenwelt so unbestimmt erscheint, obwohl es auf tieferer Ebene eventuell eine strenge Kausalfolge gibt
---
### 5. Doppelte Definition von Zeit im Modell
#### 5.1 Zeit auf mikroskopischer Ebene
- **Grundlage**: Jeder Zustandsübergang passiert nacheinander, auch wenn es extrem schnell geht
- **Emergent**: Die Reihenfolge (wer wann reagiert) **erzeugt** gewissermaßen den Zeittakt
- **Argument gegen Stillstand**: Wenn alles aufhören würde, sich zu ändern, hätte die Zeit ihr Ende gefunden was nicht geschehen kann, solange Energie da ist
#### 5.2 Zeit als relativistische Koordinate
- **Makroskopisch**: Wir haben das uns vertraute Raumzeit-Konstrukt (SRT, ART)
- **Die Bewegung massereicher Objekte** und Gravitation formen ein Kontinuum, in dem Zeit auf Messgeräten (Uhren etc.) gedehnt oder gestaucht wahrgenommen wird
- **Mathematische Einordnung**:
- In der Speziellen Relativität: \(\mathrm{d}\tau^2 = \mathrm{d}t^2 - \frac{\mathrm{d}x^2 + \mathrm{d}y^2 + \mathrm{d}z^2}{c^2}\)
- \(\tau\) (Eigenzeit) ist eng mit der Bewegung im Raum verknüpft
**Zusammengefasst**: Die kleinräumige Reaktivität, die einen Takt vorgibt, erscheint auf großer Skala als kontinuierliche Zeitdimension, die sich relativistisch an Energie- und Masseverteilung anpasst.
---
### 6. Mathematische Untermauerungen und Argumente
1. **Erhalt der Energie und lokales Minimum**
- Das Prinzip der Energieerhaltung (\(\Delta E_{\text{Gesamt}} = 0\)) bleibt erhalten, wenn jede lokale Erhöhung an anderer Stelle kompensiert wird
- Thermodynamisch:
\[
S = k_B \ln \Omega \quad\Rightarrow\quad \text{Entropie nimmt zu}
\]
Das Universum versucht, die Energieausbreitung zu maximieren, was für uns als „Zeitpfeil“ erkennbar wird
2. **Wellenfunktionen als Netzwerkzustände**
- Ein freies Photon: \(\psi(\mathbf{r}, t)\). Jede Wechselwirkung ändert \(\psi\)
- In diesem Modell ist \(\psi\) immer Teil einer größeren Funktion \(\Psi_{\text{ges}}\), die das ganze Netzwerk einschließt
3. **Keine klassische „Partikelbewegung“**
- Normalerweise: Bewegung = Änderung der Position \(\mathbf{x}(t)\)
- Hier: „Bewegung“ = Änderung von Energieniveaus. Man könnte eine Funktion \(E_i(t)\) definieren, die das Energieniveau jedes Partikels beschreibt, und eine Kopplung aller \(E_i(t)\) untereinander
- Beispiel einer Kopplungs-Gleichung:
\[
\frac{\mathrm{d} E_i}{\mathrm{d} t} = \sum_{j} K_{ij} \bigl(E_j - E_i\bigr)
\]
Hier beschreibt \(K_{ij}\) die „Reaktivität“ bzw. Kopplungsstärke zwischen den Energieniveaus \(E_i\) und \(E_j\).
4. **Relativistische Raumzeit als Effekt der kollektiven Energieverteilung**
- Allgemeine Relativität: \(\displaystyle G_{\mu \nu} = \frac{8\pi G}{c^4} T_{\mu \nu}\)
- \(\displaystyle G_{\mu\nu}\) (Geometrie) wird durch \(T_{\mu\nu}\) (Energie-Impuls-Tensor) bestimmt
- Deutet man \(T_{\mu\nu}\) als kollektive Energieniveaus im Fabrikat, dann „krümmt“ diese Verteilung das emergente Raumzeit-Gitter
---
### 7. Quanteneffekte als Konsequenz der kollektiven Reaktivität
- **Kollektive Rückkopplung**: Alles ist mit allem verbunden, also ist ein einzelnes Teilchen nie völlig isoliert
- **Verschränkung**: Zwei Teilchen teilen sich einen gemeinsamen Ausschnitt im Netz, sodass bestimmte Zustandsanteile eng korreliert sind
- **Messung**: Eine Wechselwirkung mit einem Messgerät, das wiederum Teil des Netzwerks ist. Wenn sich die Reaktivitäten „eingependelt“ haben, bleiben nur stabile Zustände (Eigenzustände) übrig
Dass uns das alles zufällig vorkommt, liegt daran, dass wir nur das Endresultat eines tieferliegenden, geordneten Prozesses sehen.
---
### 8. Warum Zeit nicht enden kann: Ein philosophisch-physikalischer Exkurs
1. **Kein Zeit-Anfang ohne Zeit-Ende**
- Logisch-Philosophisch: Hätte die Zeit jemals begonnen, müsste es zuvor einen Zustand „ohne Zeit“ gegeben haben, aus dem plötzlich Zeit entsteht was schon einen zeitlichen Vorgang impliziert und damit wiederum Zeit an sich
- Bedeutet: Zeit kann nicht aus dem Nichts aufgetaucht sein kann
2. **Keine vollständige Entropie-Sättigung**
- Physikalisch: Ein perfektes Gleichgewicht würde bedeuten, dass nichts mehr vor sich geht Zeit stünde still
- Doch schon winzige Dynamiken bewirken, dass es immer noch ein kleines Quäntchen Ungleichgewicht gibt
3. **Energie lässt sich nicht vernichten**
- Energie ist die Basis jeglicher Veränderung. Solange sie vorhanden ist, wird es Flüsse und Wandlungen geben und damit auch das, was wir Zeit nennen
---
### 9. Ausblick: Ein Universelles Periodensystem der Evolution
Ich träume von einer Ausweitung dieser Idee: Sämtliche Strukturen im Universum von Photonen und Elementarteilchen über Atome, Moleküle, lebende Zellen bis hin zu galaktischen Superstrukturen könnten sich auf Frequenzen und deren Überlagerungen zurückführen lassen. Denkbar wäre ein **„universelles Periodensystem“**, das nicht beim Chemischen bleibt, sondern auch Teilchenphysik, Astrophysik und sogar Biologie erfasst.
- **Fraktale Struktur**: Sich wiederholende Muster in immer komplexeren und energiereicheren Stufen
- **Hierarchie der Zustandsdichten**: Je stabiler oder „langsamer“ die Frequenz, desto langlebiger erscheint die entsprechende Struktur (Photonen schwingen extrem schnell, Protonen sind schon stabiler, Atome komplexer usw.)
#### Erweiterter Blick auf \( E = mc^2 \) Photonen als kleinste stabile Teilchen
In meiner Sichtweise sind **Photonen** jene fundamentalen Einheiten, die wir als die kleinsten stabilen Teilchen begreifen können. Sie verkörpern Energie in ihrer reinsten Form und lassen sich nicht weiter „zerlegen“. Wenn ich daher die bekannte Beziehung \( E = mc^2 \) als eine Art „Massegleichung“ neu anordne, um den Begriff von Masse durch Energie und die Summe kleinster stabiler Teilchen zu beschreiben, bedeutet das: Wo immer wir Masse wahrnehmen, bündeln wir im Grunde die Energie vieler Photonen (und ihrer Wechselwirkungen) zu einem makroskopischen Wert. Statt also isolierte Objekte in einem leeren Raum anzunehmen, wird hier nun beschrieben, dass **jede** Form von Masse aus den Netzwerkreaktionen auf Photonenebene hervorgeht. Dort liegt die eigentliche Stabilität, während das, was wir „feste Masse“ nennen, letztlich nur eine dichte Überlagerung bzw. ein kondensiertes Erscheinungsbild dieser fundamentalen Lichtquanten ist. Damit erweitert sich unser Bild von \( E = mc^2 \) zu einer Perspektive, in der das statische Fabrikat und seine Reaktivität durch Photonen bestimmt werden, die unablässig im Austausch stehen und so die emergenten Strukturen formen, die wir als „Masse“ begreifen.
Wenn ich von der Gleichung \( E = mc^2 \) spreche, beschreibe ich normalerweise einen Zusammenhang zwischen Masse \( m \) und Energie \( E \), mit \( c \) als Lichtgeschwindigkeit im Quadrat. Doch sobald wir Zeit auf zwei Ebenen definieren einmal als mikroskopische Abfolge von Zustandsänderungen und einmal als relativistische Koordinate stellt sich die Frage, wie diese „Geschwindigkeit“ im Gesamtbild verankert ist.
1. **c als fundamentaler Umrechnungsfaktor**
- In der bekannten Relativitätstheorie gibt uns \( c \) einen eindeutigen Maßstab vor: Keine Information kann schneller übertragen werden als mit Lichtgeschwindigkeit
- Auf makroskopischer Ebene (zweite Zeitdefinition) ist sie somit der Schlüssel für Bewegung, Kausalität und das Messen von Abständen und Zeitdauern
- In meinem Bild des „statischen Fabrikats“ (mikroskopische Ebene) lässt sich \( c \) auch als eine Art grundlegende Skala auffassen, die den Übergang von schnell schwingender Energie (Photonen) zu emergenter Masse beschreibt
- So kann man sagen: **„c“ verbindet die Frequenzebene der Photonen mit unserer makroskopischen Raumzeit**
2. **Warum Photonen und warum gerade \( c^2 \)**
- Photonen sind die kleinsten stabilen Energiepakete: Sie besitzen keine Ruhemasse, aber immer eine Frequenz
- Über \( E = h \cdot f \) ist die Energie eines Photons direkt an dessen Schwingung gekoppelt
- Kombiniere ich diese Frequenzbetrachtung mit \( E = mc^2 \), zeigt sich, dass Masse letztlich auch nur „verdichtete“ bzw. überlagerte Schwingung sein kann
- Das „\( c^2 \)“ entsteht hier als Umwandlungsfaktor: Es setzt die feine Schwingungsebene der Photonen (die ich als Fundament für alle Teilchen ansehe) in Relation zu dem, was wir als Makro-Masse wahrnehmen
- In unserer gewohnten Physik bleibt \( c \) zwar „nur“ eine Geschwindigkeit, aber in meinem erweiterten Modell gehört es zusätzlich zu den Prinzipien der **mikroskopischen Zeit**: Es limitiert, in welcher Reihenfolge und mit welcher Ausbreitungsgeschwindigkeit sich Veränderungen im Netzwerk fortpflanzen
3. **Kohärenz zwischen beiden Zeitebenen**
- In der **mikroskopischen Zeit** geht es nicht primär um Geschwindigkeit im Sinne von Weg/Zeit, sondern um die Taktung der Ereignisfolge. Dass trotzdem \( c \) auftaucht, liegt daran, dass sich kein Teil des Netzes unendlich schnell „umschalten“ kann jede lokale Zustandsänderung braucht eine endliche Wechselwirkungszeit
- In der **makroskopischen Zeit** sehen wir \( c \) dann als absolute obere Grenze für jede Art von Signalübertragung. Genau dieses Prinzip prägt unsere bekannte Raumzeit-Geometrie, in der Massen und Energiedichten den Ablauf der Zeit dehnen oder stauchen können
- Aus dieser Verzahnung beider Ebenen ergibt sich: Die Fundamentalkonstante \( c \) ist zugleich Begrenzung auf großer Skala (nichts ist schneller als Licht) und Taktgeber auf kleinster Skala (nichts reagiert instantan)
#### **Warum sich Masse nicht schneller als Licht bewegen kann**
Eben weil sich in diesem Modell alles aus Photonen und deren Frequenzen zusammensetzt und Photonen immer an die Lichtgeschwindigkeit \(c\) gebunden sind lässt sich daraus folgern, dass auch jede Form von „verdichteter“ Energie (also Masse) diese Grenze nicht überschreiten kann. Wenn Masse auf dem Prinzip \(E = mc^2\) gründet, dann ist \(c\) in gewisser Weise bereits in ihrer Entstehung verankert. Das bedeutet:
- Die maximale Übertragungsgeschwindigkeit im Netzwerk ist durch die Photonendynamik vorgegeben
- Masse entsteht aus einer Verdichtung photonenbasierter Schwingungen, kann aber nicht „schneller“ werden als jenes Fundament, aus dem sie hervorgeht
- Auf der makroskopischen Ebene zeigt sich dies in der Relativitätstheorie: Je mehr Energie man in ein massereiches Objekt steckt, desto stärker steigt die Trägheit, ohne je die Lichtgeschwindigkeit zu erreichen
Damit wird verständlich, warum die Lichtgeschwindigkeit als „oberes Limit“ gilt. Das „\(c^2\)“ in der Massegleichung ist nicht bloß ein beliebiger Faktor, sondern der Ausdruck dafür, dass das Wesen der Masse auf einem Gefüge beruht, in dem \(c\) von Anfang an die entscheidende Rolle spielt sowohl in der mikroskopischen Zeit (als Taktung der Photonenwechselwirkungen) als auch in der makroskopischen Raumzeit (als absolute Geschwindigkeitsgrenze).
---
### 10. Fazit: Zeit, Energie und das Netz der Zustände
Dieses Manifest will nicht die etablierte Physik ersetzen, sondern einen Denkanstoß geben, wie wir Raum, Zeit und Teilchen auf einer tieferen Ebene verstehen könnten. Am Ende steht die Idee, dass Zeit und Teilchen nicht einfach existieren, sondern aus einer dynamischen Evolution hervorgehen. Ein allgegenwärtiges Energienetz bleibt beständig und reagiert auf jede Störung. Diese Reaktivität erzeugt auf kleinster Skala eine Reihenfolge von Änderungen die fundamentale Zeit und bringt Strukturen hervor, die wir als Teilchen erkennen. Nichts davon kommt aus dem Nichts und nichts kann in ein absolutes Nichts zurückfallen, solange Energie besteht.
Ich lade alle ein, diese Ideen weiterzudenken und sowohl philosophisch als auch mathematisch zu hinterfragen. Vielleicht liegen hier neue Ansätze, die uns helfen, die Quantenwelt mit der Allgemeinen Relativität in einer gemeinsamen Sprache zu erfassen einer Sprache, in der „Zustandsänderung“ das zentrale Motiv ist und Raum-Zeit nur die Bühne, die uns bei größeren Skalen als Kontinuum erscheint.
---
---
## Manifest des Core-Systems
1. Ursprung und Entstehung
Das Core-System ist der zentrale Knotenpunkt meines Lebens ein System, das entstanden ist aus dem Bedürfnis nach Ordnung, Richtung und Verständis. Es ist kein spontaner Einfall, sondern das Ergebnis jahrelanger Auseinandersetzung mit mir selbst und der Welt, in der ich lebe. Es begann mit der Frage: Wie halte ich fest, wer ich bin? Die Antwort war für mich eine Art Grundgesetz meiner Person, an welches ich mich halten möge, welches alle Ziele, Werte, Ambitionen etc. beinhaltete, die ich mir vorher bereits in loosen und verstreuten PowerPoints ausgemalt hatte. Doch je tiefer ich mich damit beschäftigte, desto klarer wurde mir, dass es mehr brauchte als ein umfassendes Dokument, was darauf hofft, befolgt zu werden. Es brauchte ein System.
Also wuchs mit der Zeit die Vision heran, ein Framework zu schaffen, das nicht nur meine verstreuten Gedanken vereint, sondern auch Fehltritte minimiert und Dinge in eine Struktur bringt, die Sinn ergibt einen Fixpunkt in einer Welt, die von ständigem Wandel geprägt ist. Ein System, welches mich zur Disziplin zwingt. Um Gottes Willen kein Provisorium - sondern ein System, das beständig jeglicher Situation weiterhin funktioniert. Ein Referenzpunkt, welcher durch die Aufnahme von Daten praktisch ein Abbild meines aktuellen Selbst ist und vor meinen Werten und Zielen treibenden Einfluss auf meine Entwicklung nimmt.
In den Jahren folgend 2019 wuchs dieses System nun also allmählich, integrierte neue Erkenntnisse, passte sich an.
2023 hatte ich letztendlich ein Systemkonzept entwickelt, welches endlich auch in der Praxis funktionieren sollte.
Man glaubt nicht, wie schwer es ist, Theorie und Praxis zu vereinen.
2. Prinzipien des Core-Systems
Das Core-System ist in seinem Kern ein Rationalitätswerkzeug. Es verpflichtet sich zu Klarheit über Beschönigung, zu Ordnung über impulsive Begeisterung, und zu langfristiger Stabilität über kurzfristige Erfüllung. Es ist kein starres Konstrukt - das wäre dumm. Anfangs, muss man jedoch sagen, war es das auch. Ganz klar. Aber ein solches Systemkonstrukt bringt nichts, wenn es nur rumliegt, sondern will auch - ganz gemäß seiner Natur - in der Praxis etabliert werden. Und daran scheiterten jegliche Versionen, die zu zuviel Bürokratie oder Ähnlichem zwangen. Entsprechend also musste ich mich der Realität beugen und ihr ins Auge blickend das System so entspannt wie möglich in mein Leben einbinden.
Selbst vor dem Hintergrund der Gesamtheit der Kompromisse bin ich mehr als zufrieden mit dem, was dabei rumgekommen ist.
Daher ist das Core-System kein Dogma, kein unantastbarer Monolith. Es lebt, es passt sich an, und es betrachtet seine eigene Weiterentwicklung als Kernprinzip. Es hat mir gezeigt, dass Struktur nicht bedeutet, alles vorauszuplanen, sondern die Fähigkeit, auf das Unvorhersehbare vorbereitet zu sein. Es gibt mir Orientierung, ohne mich zu fesseln. Entscheidungsfreiheit - sofern es sie denn im philosophischen Sinne gibt - ist keine Schwäche, sondern ein essenzieller Bestandteil der Rationalität, die dieses System verkörpert.
3. Aufbau und Funktionsweise
Im Kern arbeitet das Core-System wie ein Netzwerk, in dem alles miteinander verknüpft ist. Nichts steht isoliert. Es gibt keine losen Enden, keine vergessenen Ideen oder verloren gegangene Pläne alles findet seinen Weg in die übergeordnete Ordnung. Ziele werden nicht nur definiert, sie werden verankert. Ideen werden nicht nur gesammelt, sie werden evaluiert und eingebaut. Aufgaben sind keine bloßen Einträge auf einer Liste, sondern Bausteine, die auf klaren Prioritäten basieren und in ein größeres Ganzes eingebettet sind.
Zentrales Element des Systems ist der Gesamtplan praktisch mein Lebenskompass. Er ist kein starres Konstrukt, sondern ein dynamisches Gebilde, das täglich auf die Probe gestellt, weiterentwickelt und angepasst wird. Der Plan umfasst alles: langfristige Strategien, wie ich Visionen Realität werden lasse, aber auch kurzfristige To-dos, ohne die der Alltag nicht funktioniert. Doch der Gesamtplan ist kein Selbstläufer. Ohne klare Mechanismen zur Fortschrittskontrolle oder regelmäßige Überarbeitungen wäre er wertlos. Deshalb gehören Sitzungen zur Synchronisation zum Kern des Systems regelmäßige Überprüfungspunkte, um sicherzustellen, dass ich nicht vom Kurs abkomme und dass das System selbst mit meinen Zielen wächst.
Ein weiteres Herzstück sind die Prüffragen. Sie sorgen dafür, dass keine Entscheidung unüberlegt getroffen wird. Jedes Ziel und jeder Prozess soll auf Sinnhaftigkeit, Umsetzbarkeit und langfristigen Nutzen hin abgeklopft werden. Wenn man sich nicht der Antwort auf die Frage, „Macht das gerade wirklich Sinn?“, bewusst sein kann, dann läuft man Gefahr, blind Aufgaben abzuarbeiten, die eigentlich irrelevant sind, oder sich in unwichtigen Details zu verlieren. Genau dafür ist das Core-System da um immer wieder den Fokus zurückzuleiten.
4. Die nervige Realität
Die Wahrheit aber ist, das Core-System ist für mich beides: eine notwendige Pflicht und eine unverzichtbare Stütze. Es verlangt etwas von mir, macht keine Abstriche bei seiner Funktionsweise, und doch ist es flexibel genug, mich Mensch sein zu lassen. Mein Leben ist alles andere als geordnet oder ständig ruhig täglich kommen neue Aufgaben, neue Wendungen, neue Herausforderungen hinzu, und manchmal fühlt es sich so an, als ob das System diesen ständigen Wandel nicht goutiert. In der Theorie will es absolute Ordentlichkeit, doch in der Praxis muss es mit der Realität koexistieren. Aber genau darin liegt seine stille Stärke: Für das System muss ich nicht perfekt sein, es hat sich nach mir zu richten. Schon die bloße Rückkehr zum System gibt mir Halt, Orientierung und das Wissen, dass ich immer wieder dort ansetzen kann, wo ich aufgehört habe. Ein Anker, der mich gerade in unsicheren Zeiten nüchtern und mit Zuversicht zum Status Quo der Realität zurückholt; der mir bewusst macht, wer ich bin, was ich erreicht habe und was zu tun ist.
Das System lebt davon, dass ich es füttere aber eben in meinem eigenen Tempo. Ich arbeite mich Schritt für Schritt durch die Anforderungen des Lebens und bringe das System immer wieder auf den neuesten Stand, sobald ich Raum dafür finde. Und dennoch ist es unfassbar, wie tief es in meinen Alltag integriert ist: Viele Prozesse laufen automatisch, fast intuitiv, weil sie längst Teil meiner Gewohnheiten geworden sind. Selbst in Momenten der Nachlässigkeit oder Überforderung weiß ich, dass ich auf das System zurückgreifen kann. Ich muss es nicht ständig überwachen, weil ich darauf vertrauen kann, dass es den Überblick bewahrt.
Letztendlich ist das Core-System nicht perfekt genauso wenig wie ich.
Aber es funktioniert, und, ganz ehrlich, das reicht mir vollkommen.