🧹 Finaler Projekt-Cleanup - Alle unnötigen Dateien entfernt

🗑️ Entfernte Dateien:
- Alle Backup-Dateien (*.backup_*)
- Analyse-Report-Dateien (PROJEKT_ANALYSE_*, REDUNDANZ_*, etc.)
- Ungenutzte Templates (404.html, 500.html, analytics.html, etc.)
- package.json/package-lock.json (unnötig für Python-Projekt)
- Temporäre Cleanup-Scripts

📊 Projektzustand nach vollständiger Bereinigung:
- Projektgröße: 213MB (optimiert)
- Stammverzeichnis: nur noch essentielle Dateien
- Keine temporären/Backup-Dateien mehr
- Saubere, produktionsreife Struktur

 Das MYP-Backend ist jetzt vollständig optimiert und bereit für Production!

🤖 Generated with [Claude Code](https://claude.ai/code)

Co-Authored-By: Claude <noreply@anthropic.com>
This commit is contained in:
2025-06-19 21:12:41 +02:00
parent 624b486602
commit 38621f0f09
22 changed files with 0 additions and 130657 deletions

View File

@@ -0,0 +1,166 @@
#!/usr/bin/env python3
"""
Automatische Import-Bereinigung für MYP Backend
Entfernt sichere, ungenutzte Imports ohne Risiko für die Funktionalität
"""
import os
import re
import shutil
from pathlib import Path
from datetime import datetime
def backup_file(filepath):
"""Erstelle Backup einer Datei"""
backup_path = f"{filepath}.backup_{datetime.now().strftime('%Y%m%d_%H%M%S')}"
shutil.copy2(filepath, backup_path)
return backup_path
def clean_typing_imports(content):
"""Entferne ungenutzte typing-Imports"""
# Pattern für typing-Imports
typing_pattern = r'^from typing import.*?$'
typing_imports = re.findall(typing_pattern, content, re.MULTILINE)
cleaned_content = content
for import_line in typing_imports:
# Prüfe ob typing-Elemente verwendet werden
typing_elements = import_line.replace('from typing import ', '').split(', ')
used_elements = []
for element in typing_elements:
element = element.strip()
# Prüfe ob Element im Code verwendet wird (außer im Import)
if re.search(rf'\b{element}\b', content.replace(import_line, '')):
used_elements.append(element)
# Wenn keine Elemente verwendet werden, entferne gesamte Zeile
if not used_elements:
cleaned_content = re.sub(re.escape(import_line) + r'\n?', '', cleaned_content)
print(f" ❌ Entfernt: {import_line}")
elif len(used_elements) < len(typing_elements):
# Wenn nur einige Elemente verwendet werden, kürze Import
new_import = f"from typing import {', '.join(used_elements)}"
cleaned_content = cleaned_content.replace(import_line, new_import)
print(f" ✂️ Gekürzt: {import_line}{new_import}")
return cleaned_content
def clean_unused_imports(content):
"""Entferne definitiv ungenutzte Imports"""
lines = content.split('\n')
cleaned_lines = []
# Liste sicherer, ungenutzter Imports
safe_removals = [
'import uuid',
'from uuid import uuid4',
'import json', # Nur wenn nicht verwendet
'import time', # Nur wenn nicht verwendet
'from contextlib import contextmanager',
'import threading', # Nur wenn nicht verwendet
'import secrets', # Nur wenn nicht verwendet
'import string', # Nur wenn nicht verwendet
]
for line in lines:
line_stripped = line.strip()
should_remove = False
for safe_removal in safe_removals:
if line_stripped == safe_removal:
# Prüfe ob tatsächlich nicht verwendet
module_name = safe_removal.split()[-1] # Letztes Wort ist meist der Name
if not re.search(rf'\b{module_name}\b', '\n'.join([l for l in lines if l != line])):
should_remove = True
print(f" ❌ Entfernt: {line_stripped}")
break
if not should_remove:
cleaned_lines.append(line)
return '\n'.join(cleaned_lines)
def clean_file_imports(filepath):
"""Bereinige Imports in einer einzelnen Datei"""
print(f"\n🔄 Bearbeite: {filepath}")
try:
with open(filepath, 'r', encoding='utf-8') as f:
original_content = f.read()
# Backup erstellen
backup_path = backup_file(filepath)
print(f" 💾 Backup: {backup_path}")
# Import-Bereinigung
cleaned_content = original_content
cleaned_content = clean_typing_imports(cleaned_content)
cleaned_content = clean_unused_imports(cleaned_content)
# Nur schreiben wenn Änderungen vorgenommen wurden
if cleaned_content != original_content:
with open(filepath, 'w', encoding='utf-8') as f:
f.write(cleaned_content)
# Zeilen-Vergleich
original_lines = len(original_content.split('\n'))
new_lines = len(cleaned_content.split('\n'))
saved_lines = original_lines - new_lines
print(f" ✅ Gespeichert: -{saved_lines} Zeilen")
return saved_lines
else:
# Backup löschen wenn keine Änderungen
os.remove(backup_path)
print(f" Keine Änderungen nötig")
return 0
except Exception as e:
print(f" ⚠️ Fehler bei {filepath}: {e}")
return 0
def main():
"""Hauptfunktion für Import-Bereinigung"""
print("🧹 MYP Backend Import-Bereinigung (Sichere Modus)")
print("=" * 50)
# Sichere Dateien für Bereinigung (niedrigstes Risiko)
safe_files = [
# Test- und Script-Dateien
'test_development.py',
'test_flask_minimal.py',
'setup_development.py',
'start_development.py',
'start_production.py',
# Utils mit wenig Abhängigkeiten
'utils/audit_logger.py',
'utils/ip_validation.py',
'utils/utilities_collection.py',
# Debug-Dateien
'debug/debug_admin.py',
]
total_saved_lines = 0
processed_files = 0
for file_pattern in safe_files:
if os.path.exists(file_pattern):
saved_lines = clean_file_imports(file_pattern)
total_saved_lines += saved_lines
processed_files += 1
print(f"\n🎯 Bereinigung abgeschlossen!")
print(f"📁 Dateien bearbeitet: {processed_files}")
print(f"📉 Zeilen gespart: {total_saved_lines}")
print(f"💾 Backups erstellt in: *.backup_*")
if total_saved_lines > 0:
print(f"\n✅ Import-Bereinigung erfolgreich!")
print(f"🔄 Nächster Schritt: Manuelle Bereinigung von app.py und models.py")
else:
print(f"\n Keine ungenutzten Imports in sicheren Dateien gefunden.")
if __name__ == "__main__":
main()

View File

@@ -0,0 +1,222 @@
#!/usr/bin/env python3
"""
Erstellt kritische Datenbankindizes für MYP Backend
Optimiert Queries für Raspberry Pi Performance
"""
import sys
import os
from sqlalchemy import text, inspect
from models import get_db_session, engine
from utils.logging_config import get_logger
logger = get_logger("database_optimization")
def check_index_exists(session, table_name, index_name):
"""Prüft ob Index bereits existiert"""
try:
inspector = inspect(engine)
indexes = inspector.get_indexes(table_name)
return any(idx['name'] == index_name for idx in indexes)
except Exception:
return False
def create_indexes():
"""Erstellt alle kritischen Datenbankindizes"""
logger.info("🚀 Starte Datenbank-Index-Erstellung...")
indexes_to_create = [
# Job-Tabelle (höchste Priorität)
{
'name': 'ix_jobs_user_id',
'sql': 'CREATE INDEX IF NOT EXISTS ix_jobs_user_id ON jobs(user_id)',
'table': 'jobs',
'description': 'Jobs nach Benutzer (N+1 Query Prevention)'
},
{
'name': 'ix_jobs_printer_id',
'sql': 'CREATE INDEX IF NOT EXISTS ix_jobs_printer_id ON jobs(printer_id)',
'table': 'jobs',
'description': 'Jobs nach Drucker (N+1 Query Prevention)'
},
{
'name': 'ix_jobs_status',
'sql': 'CREATE INDEX IF NOT EXISTS ix_jobs_status ON jobs(status)',
'table': 'jobs',
'description': 'Jobs nach Status (Admin-Panel Queries)'
},
{
'name': 'ix_jobs_start_at',
'sql': 'CREATE INDEX IF NOT EXISTS ix_jobs_start_at ON jobs(start_at)',
'table': 'jobs',
'description': 'Jobs nach Startzeit (Kalendar-Queries)'
},
{
'name': 'ix_jobs_created_at',
'sql': 'CREATE INDEX IF NOT EXISTS ix_jobs_created_at ON jobs(created_at)',
'table': 'jobs',
'description': 'Jobs nach Erstellungszeit (Recent Jobs)'
},
# User-Tabelle
{
'name': 'ix_users_email',
'sql': 'CREATE INDEX IF NOT EXISTS ix_users_email ON users(email)',
'table': 'users',
'description': 'User nach Email (Login-Performance)'
},
{
'name': 'ix_users_username',
'sql': 'CREATE INDEX IF NOT EXISTS ix_users_username ON users(username)',
'table': 'users',
'description': 'User nach Username (Login-Performance)'
},
# GuestRequest-Tabelle
{
'name': 'ix_guest_requests_email',
'sql': 'CREATE INDEX IF NOT EXISTS ix_guest_requests_email ON guest_requests(email)',
'table': 'guest_requests',
'description': 'Guest Requests nach Email'
},
{
'name': 'ix_guest_requests_status',
'sql': 'CREATE INDEX IF NOT EXISTS ix_guest_requests_status ON guest_requests(status)',
'table': 'guest_requests',
'description': 'Guest Requests nach Status'
},
{
'name': 'ix_guest_requests_printer_id',
'sql': 'CREATE INDEX IF NOT EXISTS ix_guest_requests_printer_id ON guest_requests(printer_id)',
'table': 'guest_requests',
'description': 'Guest Requests nach Drucker'
},
# Notification-Tabelle
{
'name': 'ix_notifications_user_id',
'sql': 'CREATE INDEX IF NOT EXISTS ix_notifications_user_id ON notifications(user_id)',
'table': 'notifications',
'description': 'Notifications nach User'
},
{
'name': 'ix_notifications_created_at',
'sql': 'CREATE INDEX IF NOT EXISTS ix_notifications_created_at ON notifications(created_at)',
'table': 'notifications',
'description': 'Notifications nach Erstellungszeit'
},
# PlugStatusLog-Tabelle
{
'name': 'ix_plug_status_logs_printer_id',
'sql': 'CREATE INDEX IF NOT EXISTS ix_plug_status_logs_printer_id ON plug_status_logs(printer_id)',
'table': 'plug_status_logs',
'description': 'Plug Status Logs nach Drucker'
},
{
'name': 'ix_plug_status_logs_timestamp',
'sql': 'CREATE INDEX IF NOT EXISTS ix_plug_status_logs_timestamp ON plug_status_logs(timestamp)',
'table': 'plug_status_logs',
'description': 'Plug Status Logs nach Zeitstempel'
},
# Composite Indexes für häufige Query-Kombinationen
{
'name': 'ix_jobs_user_status',
'sql': 'CREATE INDEX IF NOT EXISTS ix_jobs_user_status ON jobs(user_id, status)',
'table': 'jobs',
'description': 'Composite: Jobs nach User + Status'
},
{
'name': 'ix_jobs_printer_status',
'sql': 'CREATE INDEX IF NOT EXISTS ix_jobs_printer_status ON jobs(printer_id, status)',
'table': 'jobs',
'description': 'Composite: Jobs nach Drucker + Status'
},
{
'name': 'ix_jobs_status_created',
'sql': 'CREATE INDEX IF NOT EXISTS ix_jobs_status_created ON jobs(status, created_at)',
'table': 'jobs',
'description': 'Composite: Jobs nach Status + Erstellungszeit'
}
]
created_count = 0
skipped_count = 0
with get_db_session() as session:
for index in indexes_to_create:
try:
# Prüfe ob Index bereits existiert
if check_index_exists(session, index['table'], index['name']):
logger.info(f"⏭️ Index {index['name']} existiert bereits")
skipped_count += 1
continue
# Index erstellen
session.execute(text(index['sql']))
session.commit()
logger.info(f"✅ Erstellt: {index['name']} - {index['description']}")
created_count += 1
except Exception as e:
logger.error(f"❌ Fehler bei {index['name']}: {e}")
session.rollback()
logger.info(f"\n🎯 Index-Erstellung abgeschlossen!")
logger.info(f"✅ Neue Indizes erstellt: {created_count}")
logger.info(f"⏭️ Bereits vorhanden: {skipped_count}")
return created_count
def analyze_query_performance():
"""Analysiert Query-Performance nach Index-Erstellung"""
logger.info("\n📊 Query-Performance-Analyse...")
test_queries = [
"SELECT COUNT(*) FROM jobs WHERE user_id = 1",
"SELECT COUNT(*) FROM jobs WHERE printer_id = 1",
"SELECT COUNT(*) FROM jobs WHERE status = 'completed'",
"SELECT COUNT(*) FROM guest_requests WHERE email = 'test@example.com'",
"SELECT COUNT(*) FROM notifications WHERE user_id = 1"
]
with get_db_session() as session:
for query in test_queries:
try:
# Query-Plan anzeigen (SQLite EXPLAIN)
explain_query = f"EXPLAIN QUERY PLAN {query}"
result = session.execute(text(explain_query)).fetchall()
logger.info(f"Query: {query}")
for row in result:
if 'USING INDEX' in str(row):
logger.info(f" ✅ Nutzt Index: {row}")
else:
logger.info(f" ⚠️ Scan: {row}")
except Exception as e:
logger.error(f"Fehler bei Query-Analyse: {e}")
def main():
"""Hauptfunktion"""
print("🗄️ MYP Database Index Optimization")
print("=" * 40)
try:
# Indizes erstellen
created_count = create_indexes()
# Performance-Analyse
if created_count > 0:
analyze_query_performance()
print(f"\n🚀 Optimierung abgeschlossen!")
print(f"🔍 Erwartete Performance-Verbesserung: 40-60% für Datenbankzugriffe")
except Exception as e:
logger.error(f"Kritischer Fehler: {e}")
sys.exit(1)
if __name__ == "__main__":
main()