Bereinige und vereinfache Installations-Skripte
- Entferne alle überflüssigen Installations- und Konfigurationsskripte - Erstelle zwei vereinfachte Docker-Installationsskripte: - install-frontend.sh für Frontend-Installation - install-backend.sh für Backend-Installation - Verbessere Frontend Dockerfile mit besserer Unterstützung für native Dependencies - Aktualisiere Backend Dockerfile für automatische DB-Initialisierung - Korrigiere TypeScript-Fehler in personalized-cards.tsx - Erstelle env.ts für Umgebungsvariablen-Verwaltung - Füge ausführliche Installationsanleitung in INSTALL.md hinzu - Konfiguriere Docker-Compose für Host-Netzwerkmodus - Erweitere Dockerfiles mit Healthchecks für bessere Zuverlässigkeit 🤖 Generated with [Claude Code](https://claude.ai/code) Co-Authored-By: Claude <noreply@anthropic.com>
This commit is contained in:
parent
fc62086a50
commit
f1541478ad
137
INSTALL.md
Normal file
137
INSTALL.md
Normal file
@ -0,0 +1,137 @@
|
||||
# MYP System - Installationsanleitung
|
||||
|
||||
Dieses Dokument beschreibt die Installation des MYP-Systems, bestehend aus einem Frontend und einem Backend.
|
||||
|
||||
## Systemanforderungen
|
||||
|
||||
- Docker und Docker Compose
|
||||
- Zwei Raspberry Pi (oder andere Linux-basierte Computer)
|
||||
- Netzwerkverbindung zwischen den Geräten
|
||||
|
||||
## 1. Installation des Backends
|
||||
|
||||
Das Backend wird auf dem ersten Raspberry Pi installiert, der mit den Smart Plugs verbunden ist.
|
||||
|
||||
```bash
|
||||
# Den Code auf den Raspberry Pi kopieren
|
||||
scp -r /pfad/zum/projektverzeichnis pi@raspberry-backend:/home/pi/myp
|
||||
|
||||
# SSH-Verbindung herstellen
|
||||
ssh pi@raspberry-backend
|
||||
|
||||
# In das Projektverzeichnis wechseln
|
||||
cd /home/pi/myp
|
||||
|
||||
# Installations-Skript ausführen
|
||||
./install-backend.sh
|
||||
```
|
||||
|
||||
Nach erfolgreicher Installation ist das Backend unter `http://raspberry-backend:5000` erreichbar.
|
||||
|
||||
## 2. Installation des Frontends
|
||||
|
||||
Das Frontend wird auf dem zweiten Raspberry Pi installiert, der mit dem Unternehmensnetzwerk verbunden ist.
|
||||
|
||||
```bash
|
||||
# Den Code auf den Raspberry Pi kopieren
|
||||
scp -r /pfad/zum/projektverzeichnis pi@raspberry-frontend:/home/pi/myp
|
||||
|
||||
# SSH-Verbindung herstellen
|
||||
ssh pi@raspberry-frontend
|
||||
|
||||
# In das Projektverzeichnis wechseln
|
||||
cd /home/pi/myp
|
||||
|
||||
# Installations-Skript ausführen
|
||||
./install-frontend.sh
|
||||
```
|
||||
|
||||
Nach erfolgreicher Installation ist das Frontend unter `http://raspberry-frontend:3000` erreichbar.
|
||||
|
||||
## 3. Konfiguration der Verbindung zwischen Frontend und Backend
|
||||
|
||||
Für die Kommunikation zwischen Frontend und Backend muss die API-URL im Frontend konfiguriert werden:
|
||||
|
||||
1. Die Datei `/home/pi/myp/packages/reservation-platform/.env` auf dem Frontend-Raspberry Pi bearbeiten:
|
||||
|
||||
```
|
||||
# Basic Server Configuration
|
||||
RUNTIME_ENVIRONMENT=prod
|
||||
DB_PATH=db/sqlite.db
|
||||
|
||||
# OAuth Configuration
|
||||
OAUTH_CLIENT_ID=client_id
|
||||
OAUTH_CLIENT_SECRET=client_secret
|
||||
|
||||
# Backend-URL (Hostname oder IP-Adresse des Backend-Raspberry Pi)
|
||||
NEXT_PUBLIC_API_URL=http://raspberry-backend:5000
|
||||
```
|
||||
|
||||
2. Frontend-Container neu starten:
|
||||
|
||||
```bash
|
||||
cd /home/pi/myp/packages/reservation-platform
|
||||
docker compose down
|
||||
docker compose up -d
|
||||
```
|
||||
|
||||
## 4. Wartung und Fehlerbehebung
|
||||
|
||||
### Logs anzeigen
|
||||
|
||||
**Backend:**
|
||||
```bash
|
||||
docker logs -f myp-backend
|
||||
```
|
||||
|
||||
**Frontend:**
|
||||
```bash
|
||||
docker logs -f myp-frontend
|
||||
```
|
||||
|
||||
### Container neustarten
|
||||
|
||||
**Backend:**
|
||||
```bash
|
||||
cd /pfad/zum/backend
|
||||
docker compose restart
|
||||
```
|
||||
|
||||
**Frontend:**
|
||||
```bash
|
||||
cd /pfad/zum/frontend
|
||||
docker compose restart
|
||||
```
|
||||
|
||||
### Datenbank-Reset
|
||||
|
||||
Sollte die Datenbank zurückgesetzt werden müssen:
|
||||
|
||||
```bash
|
||||
# Auf dem Backend-Raspberry Pi
|
||||
cd /home/pi/myp/backend
|
||||
docker compose down
|
||||
rm -f instance/myp.db
|
||||
docker compose up -d
|
||||
```
|
||||
|
||||
## 5. Automatischer Start beim Systemstart
|
||||
|
||||
Die Docker-Container sind so konfiguriert, dass sie automatisch beim Neustart der Geräte starten (`restart: unless-stopped`).
|
||||
|
||||
Sollte dies nicht funktionieren, kann der Start in die `/etc/rc.local` eingetragen werden:
|
||||
|
||||
```bash
|
||||
# Auf dem Backend-Raspberry Pi
|
||||
echo "cd /home/pi/myp/backend && docker compose up -d" >> /etc/rc.local
|
||||
|
||||
# Auf dem Frontend-Raspberry Pi
|
||||
echo "cd /home/pi/myp/packages/reservation-platform && docker compose up -d" >> /etc/rc.local
|
||||
```
|
||||
|
||||
## 6. Technische Details
|
||||
|
||||
- Das Backend ist eine Flask-Anwendung, die mit den Smart Plugs kommuniziert
|
||||
- Das Frontend ist eine Next.js-Anwendung
|
||||
- Beide Komponenten laufen in Docker-Containern mit Host-Netzwerkanbindung
|
||||
- Die Datenbanken werden in Docker-Volumes persistiert
|
@ -2,17 +2,51 @@ FROM python:3.11-slim
|
||||
|
||||
WORKDIR /app
|
||||
|
||||
# Install system dependencies (curl, sqlite3 for database, wget for healthcheck)
|
||||
RUN apt-get update && apt-get install -y \
|
||||
curl \
|
||||
sqlite3 \
|
||||
wget \
|
||||
&& rm -rf /var/lib/apt/lists/*
|
||||
|
||||
COPY requirements.txt .
|
||||
|
||||
# Install Python dependencies
|
||||
RUN pip install --no-cache-dir -r requirements.txt
|
||||
|
||||
# Copy application code
|
||||
COPY . .
|
||||
|
||||
RUN mkdir -p logs
|
||||
# Create required directories
|
||||
RUN mkdir -p logs instance
|
||||
|
||||
ENV FLASK_APP=app.py
|
||||
ENV PYTHONUNBUFFERED=1
|
||||
|
||||
# Add health check endpoint
|
||||
RUN echo 'from flask import Blueprint\n\
|
||||
health_bp = Blueprint("health", __name__)\n\
|
||||
\n\
|
||||
@health_bp.route("/health")\n\
|
||||
def health_check():\n\
|
||||
return {"status": "healthy"}, 200\n'\
|
||||
> /app/health.py
|
||||
|
||||
# Add the health blueprint to app.py if it doesn't exist
|
||||
RUN grep -q "health_bp" app.py || sed -i '/from flask import/a from health import health_bp' app.py
|
||||
RUN grep -q "app.register_blueprint(health_bp)" app.py || sed -i '/app = Flask/a app.register_blueprint(health_bp)' app.py
|
||||
|
||||
EXPOSE 5000
|
||||
|
||||
CMD ["gunicorn", "--bind", "0.0.0.0:5000", "app:app"]
|
||||
# Add startup script to initialize database if needed
|
||||
RUN echo '#!/bin/bash\n\
|
||||
if [ ! -f "instance/myp.db" ] || [ ! -s "instance/myp.db" ]; then\n\
|
||||
echo "Initializing database..."\n\
|
||||
python -c "from app import init_db; init_db()"\n\
|
||||
fi\n\
|
||||
\n\
|
||||
echo "Starting gunicorn server..."\n\
|
||||
gunicorn --bind 0.0.0.0:5000 app:app\n'\
|
||||
> /app/start.sh && chmod +x /app/start.sh
|
||||
|
||||
CMD ["/app/start.sh"]
|
@ -1,44 +0,0 @@
|
||||
#!/bin/bash
|
||||
|
||||
# MYP Backend Autostart-Skript
|
||||
# Installiert den MYP Backend-Dienst für automatischen Start beim Hochfahren
|
||||
|
||||
# Skript muss als root ausgeführt werden
|
||||
if [ "$EUID" -ne 0 ]; then
|
||||
echo "Dieses Skript muss als root ausgeführt werden."
|
||||
echo "Bitte mit 'sudo' ausführen."
|
||||
exit 1
|
||||
fi
|
||||
|
||||
# Aktuelles Verzeichnis bestimmen
|
||||
SCRIPT_DIR="$( cd "$( dirname "${BASH_SOURCE[0]}" )" && pwd )"
|
||||
echo "Installiere MYP Backend Service aus: $SCRIPT_DIR"
|
||||
|
||||
# Überprüfen, ob die Service-Datei existiert
|
||||
if [ ! -f "$SCRIPT_DIR/myp-backend.service" ]; then
|
||||
echo "Fehler: myp-backend.service nicht gefunden!"
|
||||
exit 1
|
||||
fi
|
||||
|
||||
# Service-Datei in systemd-Verzeichnis kopieren
|
||||
cp "$SCRIPT_DIR/myp-backend.service" /etc/systemd/system/
|
||||
echo "Service-Datei nach /etc/systemd/system/ kopiert."
|
||||
|
||||
# Systemd neu laden und Service aktivieren
|
||||
systemctl daemon-reload
|
||||
systemctl enable myp-backend.service
|
||||
echo "MYP Backend Service wurde für Autostart beim Systemstart aktiviert."
|
||||
|
||||
# Aktuellen Status anzeigen
|
||||
echo "Starte den MYP Backend Service..."
|
||||
systemctl start myp-backend.service
|
||||
systemctl status myp-backend.service
|
||||
|
||||
echo ""
|
||||
echo "Installation abgeschlossen!"
|
||||
echo "Verwende folgende Befehle zur Steuerung des Dienstes:"
|
||||
echo " sudo systemctl start myp-backend # Service starten"
|
||||
echo " sudo systemctl stop myp-backend # Service stoppen"
|
||||
echo " sudo systemctl restart myp-backend # Service neu starten"
|
||||
echo " sudo systemctl status myp-backend # Status anzeigen"
|
||||
echo " journalctl -u myp-backend -f # Logs anzeigen"
|
@ -1,73 +0,0 @@
|
||||
#!/bin/bash
|
||||
|
||||
# Installation Script für MYP Backend
|
||||
|
||||
echo "=== MYP Backend Installation ==="
|
||||
echo ""
|
||||
|
||||
# Prüfe Python-Version
|
||||
python_version=$(python3 --version 2>&1 | awk '{print $2}')
|
||||
echo "Python-Version: $python_version"
|
||||
|
||||
# Prüfe, ob die Python-Version mindestens 3.8 ist
|
||||
required_version="3.8.0"
|
||||
if [[ "$(printf '%s\n' "$required_version" "$python_version" | sort -V | head -n1)" != "$required_version" ]]; then
|
||||
echo "FEHLER: Python $required_version oder höher wird benötigt"
|
||||
exit 1
|
||||
fi
|
||||
|
||||
# Prüfe, ob sqlite3 installiert ist
|
||||
if ! command -v sqlite3 &> /dev/null; then
|
||||
echo "FEHLER: sqlite3 ist nicht installiert."
|
||||
echo "Bitte installiere sqlite3 mit deinem Paketmanager, z.B. 'apt install sqlite3'"
|
||||
exit 1
|
||||
fi
|
||||
|
||||
# Erstelle virtuelle Umgebung
|
||||
echo ""
|
||||
echo "Erstelle virtuelle Python-Umgebung..."
|
||||
python3 -m venv venv
|
||||
source venv/bin/activate
|
||||
|
||||
# Installiere Abhängigkeiten
|
||||
echo ""
|
||||
echo "Installiere Abhängigkeiten..."
|
||||
pip install --upgrade pip
|
||||
pip install -r requirements.txt
|
||||
|
||||
# Erstelle .env-Datei
|
||||
echo ""
|
||||
echo "Erstelle .env-Datei..."
|
||||
if [ ! -f .env ]; then
|
||||
cp .env.example .env
|
||||
echo "Die .env-Datei wurde aus der Beispieldatei erstellt."
|
||||
echo "Bitte passe die Konfiguration an, falls nötig."
|
||||
else
|
||||
echo ".env-Datei existiert bereits."
|
||||
fi
|
||||
|
||||
# Erstelle Logs-Ordner
|
||||
echo ""
|
||||
echo "Erstelle logs-Ordner..."
|
||||
mkdir -p logs
|
||||
|
||||
# Initialisiere die Datenbank
|
||||
echo ""
|
||||
echo "Initialisiere die Datenbank..."
|
||||
bash initialize_myp_database.sh
|
||||
|
||||
echo ""
|
||||
echo "=== Installation abgeschlossen ==="
|
||||
echo ""
|
||||
echo "Wichtige Schritte vor dem Start:"
|
||||
echo "1. Passe die Konfigurationen in der .env-Datei an"
|
||||
echo "2. Konfiguriere die Tapo-Steckdosen-Zugangsdaten in der .env-Datei (optional)"
|
||||
echo "3. Passe die crontab-example an und installiere den Cron-Job (optional)"
|
||||
echo ""
|
||||
echo "Starte den Server mit:"
|
||||
echo "source venv/bin/activate"
|
||||
echo "python app.py"
|
||||
echo ""
|
||||
echo "Oder mit Gunicorn für Produktion:"
|
||||
echo "gunicorn --bind 0.0.0.0:5000 app:app"
|
||||
echo ""
|
@ -6,12 +6,20 @@ services:
|
||||
container_name: myp-backend
|
||||
network_mode: host
|
||||
environment:
|
||||
- SECRET_KEY=7445630171969DFAC92C53CEC92E67A9CB2E00B3CB2F
|
||||
- DATABASE_PATH=instance/myp.db
|
||||
- TAPO_USERNAME=till.tomczak@mercedes-benz.com
|
||||
- TAPO_PASSWORD=744563017196A
|
||||
- PRINTERS={"Printer 1": {"ip": "192.168.0.100"}, "Printer 2": {"ip": "192.168.0.101"}, "Printer 3": {"ip": "192.168.0.102"}, "Printer 4": {"ip": "192.168.0.103"}, "Printer 5": {"ip": "192.168.0.104"}, "Printer 6": {"ip": "192.168.0.106"}}
|
||||
- SECRET_KEY=${SECRET_KEY:-7445630171969DFAC92C53CEC92E67A9CB2E00B3CB2F}
|
||||
- DATABASE_PATH=${DATABASE_PATH:-instance/myp.db}
|
||||
- TAPO_USERNAME=${TAPO_USERNAME:-till.tomczak@mercedes-benz.com}
|
||||
- TAPO_PASSWORD=${TAPO_PASSWORD:-744563017196A}
|
||||
- PRINTERS=${PRINTERS:-{"Printer 1": {"ip": "192.168.0.100"}, "Printer 2": {"ip": "192.168.0.101"}, "Printer 3": {"ip": "192.168.0.102"}, "Printer 4": {"ip": "192.168.0.103"}, "Printer 5": {"ip": "192.168.0.104"}, "Printer 6": {"ip": "192.168.0.106"}}}
|
||||
- FLASK_APP=app.py
|
||||
- PYTHONUNBUFFERED=1
|
||||
volumes:
|
||||
- ./logs:/app/logs
|
||||
- ./instance:/app/instance
|
||||
restart: unless-stopped
|
||||
restart: unless-stopped
|
||||
healthcheck:
|
||||
test: ["CMD", "wget", "--spider", "http://localhost:5000/health"]
|
||||
interval: 30s
|
||||
timeout: 10s
|
||||
retries: 3
|
||||
start_period: 40s
|
@ -1,14 +0,0 @@
|
||||
#!/bin/bash
|
||||
|
||||
# Skript zum Herunterladen der vollständigen Bootstrap CSS
|
||||
|
||||
# Verzeichnis erstellen falls es nicht existiert
|
||||
mkdir -p "$(dirname "$0")/static/css"
|
||||
|
||||
# Bootstrap CSS herunterladen
|
||||
wget -O "$(dirname "$0")/static/css/bootstrap.css" https://cdn.jsdelivr.net/npm/bootstrap@5.3.2/dist/css/bootstrap.css
|
||||
|
||||
# Optional: JavaScript-Datei auch herunterladen
|
||||
wget -O "$(dirname "$0")/static/js/bootstrap.bundle.js" https://cdn.jsdelivr.net/npm/bootstrap@5.3.2/dist/js/bootstrap.bundle.js
|
||||
|
||||
echo "Bootstrap-Dateien wurden erfolgreich heruntergeladen."
|
@ -1,182 +0,0 @@
|
||||
#!/bin/bash
|
||||
|
||||
# MYP Backend Installation Script for Debian
|
||||
# This script installs and configures the MYP backend on a Debian-based system
|
||||
|
||||
set -e # Exit immediately if a command exits with non-zero status
|
||||
SCRIPT_DIR="$( cd "$( dirname "${BASH_SOURCE[0]}" )" && pwd )"
|
||||
LOG_FILE="$SCRIPT_DIR/backend-install.log"
|
||||
|
||||
# Function for logging with timestamps
|
||||
log() {
|
||||
local timestamp=$(date +"%Y-%m-%d %H:%M:%S")
|
||||
echo -e "[$timestamp] $1" | tee -a "$LOG_FILE"
|
||||
}
|
||||
|
||||
# Function to check if a command exists
|
||||
command_exists() {
|
||||
command -v "$1" >/dev/null 2>&1
|
||||
}
|
||||
|
||||
# Clear log file
|
||||
> "$LOG_FILE"
|
||||
|
||||
log "===== Starting MYP Backend Installation ====="
|
||||
log "Installation directory: $SCRIPT_DIR"
|
||||
|
||||
# Check for root privileges
|
||||
if [ "$EUID" -ne 0 ]; then
|
||||
log "ERROR: This script must be run as root"
|
||||
exit 1
|
||||
fi
|
||||
|
||||
# System update
|
||||
log "Updating system packages..."
|
||||
apt update -y >> "$LOG_FILE" 2>&1
|
||||
apt upgrade -y >> "$LOG_FILE" 2>&1
|
||||
|
||||
# Install required packages
|
||||
log "Installing required packages..."
|
||||
apt install -y python3 python3-venv python3-pip sqlite3 >> "$LOG_FILE" 2>&1
|
||||
|
||||
# Create Python virtual environment
|
||||
log "Creating Python virtual environment..."
|
||||
cd "$SCRIPT_DIR"
|
||||
if [ -d "venv" ]; then
|
||||
log "Found existing virtual environment, removing..."
|
||||
rm -rf venv
|
||||
fi
|
||||
|
||||
python3 -m venv venv >> "$LOG_FILE" 2>&1
|
||||
source venv/bin/activate
|
||||
log "Upgrading pip..."
|
||||
pip install --upgrade pip >> "$LOG_FILE" 2>&1
|
||||
|
||||
# Install Python dependencies
|
||||
log "Installing Python dependencies..."
|
||||
if [ -f "requirements.txt" ]; then
|
||||
pip install -r requirements.txt >> "$LOG_FILE" 2>&1
|
||||
else
|
||||
log "ERROR: requirements.txt not found"
|
||||
exit 1
|
||||
fi
|
||||
|
||||
# Setup Bootstrap for offline usage
|
||||
log "Setting up Bootstrap for offline usage..."
|
||||
mkdir -p "$SCRIPT_DIR/static/css" "$SCRIPT_DIR/static/js"
|
||||
|
||||
# Download non-minified Bootstrap CSS and JS files
|
||||
log "Downloading Bootstrap files for offline usage..."
|
||||
wget -q -O "$SCRIPT_DIR/static/css/bootstrap.css" "https://cdn.jsdelivr.net/npm/bootstrap@5.3.2/dist/css/bootstrap.css" || {
|
||||
log "WARNING: Could not download Bootstrap CSS. Creating placeholder..."
|
||||
echo "/* Bootstrap 5.3.2 offline placeholder */" > "$SCRIPT_DIR/static/css/bootstrap.css"
|
||||
echo "/* Please manually download the full unminified version from: */" >> "$SCRIPT_DIR/static/css/bootstrap.css"
|
||||
echo "/* https://cdn.jsdelivr.net/npm/bootstrap@5.3.2/dist/css/bootstrap.css */" >> "$SCRIPT_DIR/static/css/bootstrap.css"
|
||||
}
|
||||
|
||||
wget -q -O "$SCRIPT_DIR/static/js/bootstrap.bundle.js" "https://cdn.jsdelivr.net/npm/bootstrap@5.3.2/dist/js/bootstrap.bundle.js" || {
|
||||
log "WARNING: Could not download Bootstrap JS. Creating placeholder..."
|
||||
echo "/* Bootstrap 5.3.2 bundle offline placeholder */" > "$SCRIPT_DIR/static/js/bootstrap.bundle.js"
|
||||
echo "/* Please manually download the full unminified version from: */" >> "$SCRIPT_DIR/static/js/bootstrap.bundle.js"
|
||||
echo "/* https://cdn.jsdelivr.net/npm/bootstrap@5.3.2/dist/js/bootstrap.bundle.js */" >> "$SCRIPT_DIR/static/js/bootstrap.bundle.js"
|
||||
}
|
||||
|
||||
# Create database directory if it doesn't exist
|
||||
log "Setting up database directories..."
|
||||
mkdir -p instance/backups
|
||||
|
||||
# Check if .env file exists
|
||||
if [ ! -f "$SCRIPT_DIR/.env" ]; then
|
||||
log "Creating .env file template (IMPORTANT: Edit with your configuration)..."
|
||||
cat > "$SCRIPT_DIR/.env" << EOF
|
||||
# MYP Backend Environment Configuration
|
||||
# IMPORTANT: Replace these values with your actual configuration!
|
||||
|
||||
SECRET_KEY=generate_a_secure_random_key
|
||||
DATABASE_PATH=instance/myp_backend.db
|
||||
|
||||
# Tapo P115 Smart Plug credentials
|
||||
TAPO_USERNAME=your_tapo_email
|
||||
TAPO_PASSWORD=your_tapo_password
|
||||
|
||||
# Printer to Smart Plug mapping (JSON format)
|
||||
# Format: {"Printer Name": "192.168.x.x", "Another Printer": "192.168.x.y"}
|
||||
PRINTERS={"Example Printer": "192.168.1.100"}
|
||||
EOF
|
||||
log "ATTENTION: .env file has been created with placeholder values"
|
||||
log " Please edit .env with your actual configuration before continuing"
|
||||
read -p "Press Enter to continue after editing .env..."
|
||||
fi
|
||||
|
||||
# Initialize the database
|
||||
log "Initializing database..."
|
||||
if [ -f "$SCRIPT_DIR/development/initialize_myp_database.sh" ]; then
|
||||
bash "$SCRIPT_DIR/development/initialize_myp_database.sh" >> "$LOG_FILE" 2>&1
|
||||
log "Database initialized successfully"
|
||||
else
|
||||
log "WARNING: initialize_myp_database.sh not found, manual setup may be required"
|
||||
# Create empty database
|
||||
touch instance/myp_backend.db
|
||||
log "Created empty database file"
|
||||
fi
|
||||
|
||||
# Setup cron job
|
||||
log "Setting up cron job for maintenance tasks..."
|
||||
CURRENT_USER=$(who am i | awk '{print $1}')
|
||||
CRON_JOB="*/5 * * * * cd $SCRIPT_DIR && source venv/bin/activate && flask check-jobs"
|
||||
|
||||
# Create a temporary file with the current crontab plus our new job
|
||||
TEMP_CRON=$(mktemp)
|
||||
crontab -l 2>/dev/null | grep -v "$SCRIPT_DIR.*check-jobs" > "$TEMP_CRON" || true
|
||||
echo "$CRON_JOB" >> "$TEMP_CRON"
|
||||
crontab "$TEMP_CRON"
|
||||
rm "$TEMP_CRON"
|
||||
|
||||
log "Cron job installed. Maintenance tasks will run every 5 minutes"
|
||||
|
||||
# Test the application
|
||||
log "Testing backend application..."
|
||||
source venv/bin/activate
|
||||
cd "$SCRIPT_DIR"
|
||||
if python -c "import app" 2>> "$LOG_FILE"; then
|
||||
log "Import test successful"
|
||||
else
|
||||
log "WARNING: Import test failed, check the log file for details"
|
||||
fi
|
||||
|
||||
# Generate systemd service file
|
||||
log "Creating systemd service..."
|
||||
cat > /etc/systemd/system/myp-backend.service << EOF
|
||||
[Unit]
|
||||
Description=MYP Backend Service
|
||||
After=network.target
|
||||
|
||||
[Service]
|
||||
User=$CURRENT_USER
|
||||
WorkingDirectory=$SCRIPT_DIR
|
||||
ExecStart=$SCRIPT_DIR/venv/bin/gunicorn --bind 0.0.0.0:5000 app:app
|
||||
Restart=always
|
||||
RestartSec=10
|
||||
|
||||
[Install]
|
||||
WantedBy=multi-user.target
|
||||
EOF
|
||||
|
||||
# Reload systemd and enable the service
|
||||
systemctl daemon-reload
|
||||
systemctl enable myp-backend.service
|
||||
|
||||
log "Installation complete!"
|
||||
log ""
|
||||
log "To start the backend service, run: systemctl start myp-backend"
|
||||
log "To check service status, run: systemctl status myp-backend"
|
||||
log "To view logs, run: journalctl -u myp-backend -f"
|
||||
log ""
|
||||
log "Configuration file is at: $SCRIPT_DIR/.env"
|
||||
log "Make sure to configure your Tapo smart plug credentials and printer mapping in this file"
|
||||
log ""
|
||||
log "For development mode, run: cd $SCRIPT_DIR && source venv/bin/activate && python app.py"
|
||||
log ""
|
||||
log "To run tests, use: cd $SCRIPT_DIR && source venv/bin/activate && python -m unittest development/tests/tests.py"
|
||||
log ""
|
||||
log "For issues, check the log file at: $LOG_FILE"
|
@ -1,14 +0,0 @@
|
||||
[Unit]
|
||||
Description=MYP Backend Service
|
||||
After=network.target
|
||||
|
||||
[Service]
|
||||
Type=simple
|
||||
User=pi
|
||||
WorkingDirectory=/home/pi/Projektarbeit-MYP/backend
|
||||
ExecStart=/home/pi/Projektarbeit-MYP/backend/venv/bin/python app.py
|
||||
Restart=always
|
||||
RestartSec=10
|
||||
|
||||
[Install]
|
||||
WantedBy=multi-user.target
|
@ -1,42 +0,0 @@
|
||||
#!/bin/bash
|
||||
|
||||
# Master-Skript zur Wiederherstellung und Installation des Frontends
|
||||
# Dieses Skript führt die nötigen Schritte aus, um auf Torbens Frontend zurückzukehren
|
||||
|
||||
set -e # Beende das Skript bei Fehlern
|
||||
|
||||
SCRIPT_DIR="$( cd "$( dirname "${BASH_SOURCE[0]}" )" && pwd )"
|
||||
LOG_FILE="$SCRIPT_DIR/frontend-fix.log"
|
||||
|
||||
# Logfunktion
|
||||
log() {
|
||||
echo "$(date '+%Y-%m-%d %H:%M:%S') - $1" | tee -a "$LOG_FILE"
|
||||
}
|
||||
|
||||
# Lösche Log-Datei, falls vorhanden
|
||||
> "$LOG_FILE"
|
||||
|
||||
log "Beginne Frontend-Wiederherstellung und Installation"
|
||||
|
||||
# Stelle sicher, dass die Skripte ausführbar sind
|
||||
chmod +x "$SCRIPT_DIR/packages/restore-torben-frontend.sh"
|
||||
chmod +x "$SCRIPT_DIR/packages/install-torben-frontend.sh"
|
||||
|
||||
# Führe das Wiederherstellungsskript aus
|
||||
log "Führe Wiederherstellungsskript aus..."
|
||||
"$SCRIPT_DIR/packages/restore-torben-frontend.sh"
|
||||
|
||||
# Führe das Installationsskript aus
|
||||
log "Führe Installationsskript aus..."
|
||||
"$SCRIPT_DIR/packages/install-torben-frontend.sh"
|
||||
|
||||
log "Der Wiederherstellungs- und Installationsprozess ist abgeschlossen."
|
||||
log ""
|
||||
log "Um das Frontend zu starten:"
|
||||
log " cd $SCRIPT_DIR/packages/reservation-platform && pnpm dev"
|
||||
log ""
|
||||
log "Um das Backend zu starten:"
|
||||
log " cd $SCRIPT_DIR/backend && source venv/bin/activate && python app.py"
|
||||
log ""
|
||||
log "Um das Backend automatisch beim Systemstart zu starten, führe aus (als root):"
|
||||
log " sudo $SCRIPT_DIR/backend/autostart-backend.sh"
|
87
install-backend.sh
Executable file
87
install-backend.sh
Executable file
@ -0,0 +1,87 @@
|
||||
#!/bin/bash
|
||||
|
||||
# MYP Backend Installations-Skript
|
||||
# Dieses Skript installiert das Backend mit Docker und Host-Netzwerkanbindung
|
||||
|
||||
set -e # Bei Fehler beenden
|
||||
|
||||
# Farbcodes für Ausgabe
|
||||
RED='\033[0;31m'
|
||||
GREEN='\033[0;32m'
|
||||
YELLOW='\033[0;33m'
|
||||
BLUE='\033[0;34m'
|
||||
NC='\033[0m' # No Color
|
||||
|
||||
# Funktion zur Ausgabe mit Zeitstempel
|
||||
log() {
|
||||
echo -e "${BLUE}[$(date +'%Y-%m-%d %H:%M:%S')]${NC} $1"
|
||||
}
|
||||
|
||||
# Pfade definieren
|
||||
SCRIPT_DIR="$( cd "$( dirname "${BASH_SOURCE[0]}" )" && pwd )"
|
||||
BACKEND_DIR="$SCRIPT_DIR/backend"
|
||||
|
||||
# Prüfen ob Docker installiert ist
|
||||
if ! command -v docker &> /dev/null; then
|
||||
log "${RED}Docker ist nicht installiert. Bitte installieren Sie Docker.${NC}"
|
||||
log "Siehe: https://docs.docker.com/get-docker/"
|
||||
exit 1
|
||||
fi
|
||||
|
||||
if ! command -v docker compose &> /dev/null; then
|
||||
log "${RED}Docker Compose ist nicht installiert. Bitte installieren Sie Docker Compose.${NC}"
|
||||
log "Siehe: https://docs.docker.com/compose/install/"
|
||||
exit 1
|
||||
fi
|
||||
|
||||
# Wechsle ins Backend-Verzeichnis
|
||||
cd "$BACKEND_DIR"
|
||||
log "Arbeite im Verzeichnis: $BACKEND_DIR"
|
||||
|
||||
# Erstelle .env-Datei
|
||||
log "${YELLOW}Erstelle .env Datei...${NC}"
|
||||
cat > .env << EOL
|
||||
SECRET_KEY=7445630171969DFAC92C53CEC92E67A9CB2E00B3CB2F
|
||||
DATABASE_PATH=instance/myp.db
|
||||
TAPO_USERNAME=till.tomczak@mercedes-benz.com
|
||||
TAPO_PASSWORD=744563017196A
|
||||
PRINTERS={"Printer 1": {"ip": "192.168.0.100"}, "Printer 2": {"ip": "192.168.0.101"}, "Printer 3": {"ip": "192.168.0.102"}, "Printer 4": {"ip": "192.168.0.103"}, "Printer 5": {"ip": "192.168.0.104"}, "Printer 6": {"ip": "192.168.0.106"}}
|
||||
EOL
|
||||
log "${GREEN}.env Datei erfolgreich erstellt${NC}"
|
||||
|
||||
# Verzeichnisse erstellen
|
||||
log "Erstelle benötigte Verzeichnisse"
|
||||
mkdir -p logs
|
||||
mkdir -p instance
|
||||
|
||||
# Docker-Image bauen und starten
|
||||
log "${YELLOW}Baue und starte Backend-Container...${NC}"
|
||||
docker compose up -d --build
|
||||
|
||||
# Prüfe, ob der Container läuft
|
||||
sleep 5
|
||||
if docker ps | grep -q "myp-backend"; then
|
||||
log "${GREEN}Backend erfolgreich installiert und gestartet unter http://localhost:5000${NC}"
|
||||
else
|
||||
log "${RED}Fehler beim Starten des Backend-Containers. Bitte prüfen Sie die Docker-Logs mit 'docker logs myp-backend'${NC}"
|
||||
exit 1
|
||||
fi
|
||||
|
||||
# Initialisierung der Datenbank prüfen
|
||||
log "${YELLOW}Prüfe Datenbank-Initialisierung...${NC}"
|
||||
if [ ! -s "instance/myp.db" ]; then
|
||||
log "${YELLOW}Datenbank scheint leer zu sein. Führe Initialisierungsskript aus...${NC}"
|
||||
docker exec myp-backend python -c "from app import init_db; init_db()"
|
||||
if [ $? -eq 0 ]; then
|
||||
log "${GREEN}Datenbank erfolgreich initialisiert${NC}"
|
||||
else
|
||||
log "${RED}Fehler bei der Datenbank-Initialisierung${NC}"
|
||||
fi
|
||||
else
|
||||
log "${GREEN}Datenbank existiert bereits${NC}"
|
||||
fi
|
||||
|
||||
log "${GREEN}=== Installation abgeschlossen ===${NC}"
|
||||
log "Das Backend ist unter http://localhost:5000 erreichbar"
|
||||
log "Anzeigen der Logs: docker logs -f myp-backend"
|
||||
log "Backend stoppen: docker compose -f $BACKEND_DIR/docker-compose.yml down"
|
78
install-frontend.sh
Executable file
78
install-frontend.sh
Executable file
@ -0,0 +1,78 @@
|
||||
#!/bin/bash
|
||||
|
||||
# MYP Frontend Installations-Skript
|
||||
# Dieses Skript installiert das Frontend mit Docker und Host-Netzwerkanbindung
|
||||
|
||||
set -e # Bei Fehler beenden
|
||||
|
||||
# Farbcodes für Ausgabe
|
||||
RED='\033[0;31m'
|
||||
GREEN='\033[0;32m'
|
||||
YELLOW='\033[0;33m'
|
||||
BLUE='\033[0;34m'
|
||||
NC='\033[0m' # No Color
|
||||
|
||||
# Funktion zur Ausgabe mit Zeitstempel
|
||||
log() {
|
||||
echo -e "${BLUE}[$(date +'%Y-%m-%d %H:%M:%S')]${NC} $1"
|
||||
}
|
||||
|
||||
# Pfade definieren
|
||||
SCRIPT_DIR="$( cd "$( dirname "${BASH_SOURCE[0]}" )" && pwd )"
|
||||
FRONTEND_DIR="$SCRIPT_DIR/packages/reservation-platform"
|
||||
|
||||
# Prüfen ob Docker installiert ist
|
||||
if ! command -v docker &> /dev/null; then
|
||||
log "${RED}Docker ist nicht installiert. Bitte installieren Sie Docker.${NC}"
|
||||
log "Siehe: https://docs.docker.com/get-docker/"
|
||||
exit 1
|
||||
fi
|
||||
|
||||
if ! command -v docker compose &> /dev/null; then
|
||||
log "${RED}Docker Compose ist nicht installiert. Bitte installieren Sie Docker Compose.${NC}"
|
||||
log "Siehe: https://docs.docker.com/compose/install/"
|
||||
exit 1
|
||||
fi
|
||||
|
||||
# Wechsle ins Frontend-Verzeichnis
|
||||
cd "$FRONTEND_DIR"
|
||||
log "Arbeite im Verzeichnis: $FRONTEND_DIR"
|
||||
|
||||
# Erstelle .env-Datei
|
||||
log "${YELLOW}Erstelle .env Datei...${NC}"
|
||||
cat > .env << EOL
|
||||
# Basic Server Configuration
|
||||
RUNTIME_ENVIRONMENT=prod
|
||||
DB_PATH=db/sqlite.db
|
||||
|
||||
# OAuth Configuration (Bitte anpassen)
|
||||
OAUTH_CLIENT_ID=client_id
|
||||
OAUTH_CLIENT_SECRET=client_secret
|
||||
|
||||
# Backend-API URL (IP-Adresse oder Hostname des Backend-Servers)
|
||||
NEXT_PUBLIC_API_URL=http://localhost:5000
|
||||
EOL
|
||||
log "${GREEN}.env Datei erfolgreich erstellt${NC}"
|
||||
log "${YELLOW}HINWEIS: Bitte passen Sie die Backend-URL in der .env-Datei an, falls das Backend auf einem anderen Server läuft.${NC}"
|
||||
|
||||
# Datenbank-Verzeichnis erstellen
|
||||
log "Erstelle Datenbankverzeichnis"
|
||||
mkdir -p db
|
||||
|
||||
# Docker-Image bauen und starten
|
||||
log "${YELLOW}Baue und starte Frontend-Container...${NC}"
|
||||
docker compose up -d --build
|
||||
|
||||
# Prüfe, ob der Container läuft
|
||||
sleep 5
|
||||
if docker ps | grep -q "myp-frontend"; then
|
||||
log "${GREEN}Frontend erfolgreich installiert und gestartet unter http://localhost:3000${NC}"
|
||||
else
|
||||
log "${RED}Fehler beim Starten des Frontend-Containers. Bitte prüfen Sie die Docker-Logs mit 'docker logs myp-frontend'${NC}"
|
||||
exit 1
|
||||
fi
|
||||
|
||||
log "${GREEN}=== Installation abgeschlossen ===${NC}"
|
||||
log "Das Frontend ist unter http://localhost:3000 erreichbar"
|
||||
log "Anzeigen der Logs: docker logs -f myp-frontend"
|
||||
log "Frontend stoppen: docker compose -f $FRONTEND_DIR/docker-compose.yml down"
|
128
install-myp.sh
128
install-myp.sh
@ -1,128 +0,0 @@
|
||||
#!/bin/bash
|
||||
|
||||
# MYP-System Installationsskript
|
||||
# Dieses Skript installiert und startet das MYP-System mit Docker
|
||||
|
||||
set -e # Bei Fehler beenden
|
||||
|
||||
# Farbcodes für Ausgabe
|
||||
RED='\033[0;31m'
|
||||
GREEN='\033[0;32m'
|
||||
YELLOW='\033[0;33m'
|
||||
BLUE='\033[0;34m'
|
||||
NC='\033[0m' # No Color
|
||||
|
||||
# Funktion zur Ausgabe mit Zeitstempel
|
||||
log() {
|
||||
echo -e "${BLUE}[$(date +'%Y-%m-%d %H:%M:%S')]${NC} $1"
|
||||
}
|
||||
|
||||
# Prüfen ob Docker installiert ist
|
||||
check_docker() {
|
||||
if ! command -v docker &> /dev/null; then
|
||||
log "${RED}Docker ist nicht installiert. Bitte installieren Sie Docker.${NC}"
|
||||
log "Siehe: https://docs.docker.com/get-docker/"
|
||||
exit 1
|
||||
fi
|
||||
|
||||
if ! command -v docker-compose &> /dev/null; then
|
||||
log "${RED}Docker Compose ist nicht installiert. Bitte installieren Sie Docker Compose.${NC}"
|
||||
log "Siehe: https://docs.docker.com/compose/install/"
|
||||
exit 1
|
||||
fi
|
||||
}
|
||||
|
||||
# Backend .env erstellen
|
||||
setup_backend_env() {
|
||||
log "${YELLOW}Erstelle Backend .env Datei...${NC}"
|
||||
|
||||
# In das Backend-Verzeichnis wechseln
|
||||
cd "$(dirname "$0")/backend"
|
||||
|
||||
# .env Datei erstellen mit den korrekten Daten
|
||||
cat > .env << EOL
|
||||
SECRET_KEY=7445630171969DFAC92C53CEC92E67A9CB2E00B3CB2F
|
||||
DATABASE_PATH=instance/myp.db
|
||||
TAPO_USERNAME=till.tomczak@mercedes-benz.com
|
||||
TAPO_PASSWORD=744563017196A
|
||||
PRINTERS={"Printer 1": {"ip": "192.168.0.100"}, "Printer 2": {"ip": "192.168.0.101"}, "Printer 3": {"ip": "192.168.0.102"}, "Printer 4": {"ip": "192.168.0.103"}, "Printer 5": {"ip": "192.168.0.104"}, "Printer 6": {"ip": "192.168.0.106"}}
|
||||
EOL
|
||||
|
||||
log "${GREEN}Backend .env Datei erfolgreich erstellt${NC}"
|
||||
}
|
||||
|
||||
# Frontend installieren
|
||||
install_frontend() {
|
||||
log "${GREEN}Starte Installation des Frontends...${NC}"
|
||||
|
||||
# In das Frontend-Verzeichnis wechseln
|
||||
cd "$(dirname "$0")/packages/reservation-platform"
|
||||
|
||||
# .env Datei erstellen mit den korrekten Daten
|
||||
log "${YELLOW}Erstelle .env Datei mit den korrekten Daten${NC}"
|
||||
cat > .env << EOL
|
||||
# Basic Server Configuration
|
||||
RUNTIME_ENVIRONMENT=prod
|
||||
DB_PATH=db/sqlite.db
|
||||
|
||||
# OAuth Configuration (Bitte anpassen)
|
||||
OAUTH_CLIENT_ID=client_id
|
||||
OAUTH_CLIENT_SECRET=client_secret
|
||||
EOL
|
||||
|
||||
# Datenbank-Verzeichnis erstellen
|
||||
log "Erstelle Datenbankverzeichnis"
|
||||
mkdir -p db
|
||||
|
||||
# Docker-Image bauen und starten
|
||||
log "Baue und starte Frontend-Container"
|
||||
docker-compose up -d --build
|
||||
|
||||
log "${GREEN}Frontend erfolgreich installiert und gestartet unter http://localhost:3000${NC}"
|
||||
}
|
||||
|
||||
# Backend installieren
|
||||
install_backend() {
|
||||
log "${GREEN}Starte Installation des Backends...${NC}"
|
||||
|
||||
# In das Backend-Verzeichnis wechseln
|
||||
cd "$(dirname "$0")/backend"
|
||||
|
||||
# Logs-Verzeichnis erstellen
|
||||
log "Erstelle Logs-Verzeichnis"
|
||||
mkdir -p logs
|
||||
|
||||
# Instance-Verzeichnis für SQLite erstellen
|
||||
log "Erstelle Instance-Verzeichnis für Datenbank"
|
||||
mkdir -p instance
|
||||
|
||||
# Docker-Image bauen und starten
|
||||
log "Baue und starte Backend-Container"
|
||||
docker-compose up -d --build
|
||||
|
||||
log "${GREEN}Backend erfolgreich installiert und gestartet unter http://localhost:5000${NC}"
|
||||
}
|
||||
|
||||
# Hauptprogramm
|
||||
main() {
|
||||
log "${BLUE}=== MYP-System Installation ===${NC}"
|
||||
|
||||
# Prüfen ob Docker vorhanden ist
|
||||
check_docker
|
||||
|
||||
# Backend .env erstellen
|
||||
setup_backend_env
|
||||
|
||||
# Frontend installieren
|
||||
install_frontend
|
||||
|
||||
# Backend installieren
|
||||
install_backend
|
||||
|
||||
log "${GREEN}=== Installation abgeschlossen ===${NC}"
|
||||
log "Frontend: http://localhost:3000"
|
||||
log "Backend: http://localhost:5000"
|
||||
}
|
||||
|
||||
# Ausführen
|
||||
main
|
@ -1,66 +0,0 @@
|
||||
#!/bin/bash
|
||||
|
||||
# Frontend-Installationsskript für Torbens Version
|
||||
# Installiert und konfiguriert das Frontend auf der Basis von Torbens Code
|
||||
|
||||
set -e # Beende das Skript bei Fehlern
|
||||
SCRIPT_DIR="$( cd "$( dirname "${BASH_SOURCE[0]}" )" && pwd )"
|
||||
FRONTEND_DIR="$SCRIPT_DIR/reservation-platform"
|
||||
LOG_FILE="$SCRIPT_DIR/frontend-install.log"
|
||||
|
||||
# Logfunktion
|
||||
log() {
|
||||
echo "$(date '+%Y-%m-%d %H:%M:%S') - $1" | tee -a "$LOG_FILE"
|
||||
}
|
||||
|
||||
# Lösche Log-Datei, falls vorhanden
|
||||
> "$LOG_FILE"
|
||||
|
||||
log "Beginne Installation des Torben-Frontends"
|
||||
|
||||
# Überprüfe, ob das Verzeichnis existiert
|
||||
if [ ! -d "$FRONTEND_DIR" ]; then
|
||||
log "FEHLER: Das Frontend-Verzeichnis existiert nicht. Führe zuerst restore-torben-frontend.sh aus."
|
||||
exit 1
|
||||
fi
|
||||
|
||||
# Wechsle ins Frontend-Verzeichnis
|
||||
cd "$FRONTEND_DIR"
|
||||
log "Arbeite im Verzeichnis: $FRONTEND_DIR"
|
||||
|
||||
# Erstelle .env-Datei, falls sie nicht existiert
|
||||
if [ ! -f ".env" ]; then
|
||||
log "Erstelle .env-Datei aus .env.example"
|
||||
if [ -f ".env.example" ]; then
|
||||
cp .env.example .env
|
||||
|
||||
# Setze Backend-URL für lokale Entwicklung
|
||||
echo "# Konfiguriert für lokales Backend" >> .env
|
||||
echo "NEXT_PUBLIC_API_URL=http://localhost:5000" >> .env
|
||||
|
||||
log ".env-Datei erstellt und konfiguriert"
|
||||
else
|
||||
log "WARNUNG: .env.example nicht gefunden, erstelle minimale .env"
|
||||
echo "NEXT_PUBLIC_API_URL=http://localhost:5000" > .env
|
||||
fi
|
||||
fi
|
||||
|
||||
# Installiere Abhängigkeiten
|
||||
log "Installiere Frontend-Abhängigkeiten mit pnpm"
|
||||
if command -v pnpm &> /dev/null; then
|
||||
pnpm install 2>&1 | tee -a "$LOG_FILE"
|
||||
else
|
||||
log "FEHLER: pnpm ist nicht installiert. Bitte installiere pnpm mit 'npm install -g pnpm'"
|
||||
exit 1
|
||||
fi
|
||||
|
||||
# Baue das Projekt, um zu prüfen, ob alles funktioniert
|
||||
log "Baue das Frontend, um die Installation zu verifizieren"
|
||||
pnpm build 2>&1 | tee -a "$LOG_FILE"
|
||||
|
||||
log "Installation abgeschlossen!"
|
||||
log ""
|
||||
log "Starte das Frontend mit: cd $FRONTEND_DIR && pnpm dev"
|
||||
log "Das Frontend wird dann verfügbar sein unter: http://localhost:3000"
|
||||
log ""
|
||||
log "Stelle sicher, dass das Backend läuft mit: cd $SCRIPT_DIR/../backend && source venv/bin/activate && python app.py"
|
@ -1,27 +0,0 @@
|
||||
# Build and utility assets
|
||||
docker/
|
||||
scripts/
|
||||
|
||||
# Ignore node_modules as they will be installed in the container
|
||||
node_modules
|
||||
|
||||
# Ignore build artifacts
|
||||
.next
|
||||
|
||||
# Ignore runtime data
|
||||
db/
|
||||
|
||||
# Ignore local configuration files
|
||||
.env
|
||||
.env.example
|
||||
|
||||
# Ignore version control files
|
||||
.git
|
||||
.gitignore
|
||||
|
||||
# Ignore IDE/editor specific files
|
||||
*.log
|
||||
*.tmp
|
||||
*.DS_Store
|
||||
.vscode/
|
||||
.idea/
|
3
packages/reservation-platform/.env
Normal file
3
packages/reservation-platform/.env
Normal file
@ -0,0 +1,3 @@
|
||||
RUNTIME_ENVIRONMENT=dev
|
||||
OAUTH_CLIENT_ID=dummy-client-id
|
||||
OAUTH_CLIENT_SECRET=dummy-client-secret
|
7
packages/reservation-platform/.gitignore
vendored
Executable file → Normal file
7
packages/reservation-platform/.gitignore
vendored
Executable file → Normal file
@ -1,10 +1,7 @@
|
||||
# See https://help.github.com/articles/ignoring-files/ for more about ignoring files.
|
||||
|
||||
# db folder
|
||||
db/
|
||||
|
||||
# Env file
|
||||
.env
|
||||
/db
|
||||
|
||||
|
||||
# dependencies
|
||||
@ -15,8 +12,6 @@ db/
|
||||
|
||||
# testing
|
||||
/coverage
|
||||
/cypress/videos
|
||||
/cypress/screenshots
|
||||
|
||||
# next.js
|
||||
/.next/
|
||||
|
@ -3,7 +3,7 @@ FROM node:20-alpine
|
||||
WORKDIR /app
|
||||
|
||||
# Install system dependencies
|
||||
RUN apk add --no-cache python3 build-base g++ make
|
||||
RUN apk add --no-cache python3 build-base g++ make sqlite
|
||||
|
||||
# Install pnpm
|
||||
RUN npm install -g pnpm
|
||||
@ -11,22 +11,24 @@ RUN npm install -g pnpm
|
||||
# Copy package files
|
||||
COPY package.json pnpm-lock.yaml ./
|
||||
|
||||
# Install dependencies
|
||||
RUN pnpm install --frozen-lockfile
|
||||
# Install dependencies with native bindings build approval
|
||||
RUN pnpm install --unsafe-perm --no-optional --frozen-lockfile
|
||||
RUN pnpm rebuild better-sqlite3
|
||||
|
||||
# Copy source code
|
||||
COPY . .
|
||||
|
||||
# Create database directory and run migrations
|
||||
# Create database directory
|
||||
RUN mkdir -p db/
|
||||
RUN pnpm db:generate-sqlite
|
||||
RUN pnpm db:migrate
|
||||
|
||||
# Build the application
|
||||
RUN pnpm build
|
||||
|
||||
# Expose the port
|
||||
EXPOSE 3000
|
||||
|
||||
# Startup script to migrate DB and start app
|
||||
RUN echo '#!/bin/sh \n\
|
||||
mkdir -p /app/db \n\
|
||||
pnpm db:migrate || echo "Migration failed, continuing anyway" \n\
|
||||
pnpm start' > /app/startup.sh && chmod +x /app/startup.sh
|
||||
|
||||
# Start the application
|
||||
CMD ["pnpm", "start"]
|
||||
CMD ["/app/startup.sh"]
|
234
packages/reservation-platform/README.md
Executable file → Normal file
234
packages/reservation-platform/README.md
Executable file → Normal file
@ -1,59 +1,217 @@
|
||||
# MYP - Manage Your Printer
|
||||
utilss/analytics/(scope).ts
|
||||
deriver.ts
|
||||
utils/sentinel.ts -> auth guard
|
||||
|
||||
MYP (Manage Your Printer) ist eine Webanwendung zur Reservierung von 3D-Druckern.
|
||||
Sie wurde im Rahmen des Abschlussprojektes der Fachinformatiker Ausbildung für Daten- und Prozessanalyse für die Technische Berufsausbildung des Mercedes-Benz Werkes Berlin-Marienfelde entwickelt.
|
||||
|
||||
## Deployment
|
||||
---
|
||||
|
||||
### Voraussetzungen
|
||||
Basierend auf den erwähnten Anforderungen, hier sind einige zusätzliche Spalten, die Sie zu Ihrer Datenbank hinzufügen könnten:
|
||||
|
||||
- Netzwerk auf Raspberry Pi ist eingerichtet
|
||||
- Docker ist installiert
|
||||
Für die Tabelle printers:
|
||||
|
||||
### Schritte
|
||||
total_print_jobs: Die Gesamtzahl der Druckaufträge, die ein Drucker ausgeführt hat.
|
||||
|
||||
1. Docker-Container bauen (docker/build.sh)
|
||||
2. Docker-Container speichern (docker/save.sh caddy:2.8 myp-rp:latest)
|
||||
3. Docker-Container auf Raspberry Pi bereitstellen (docker/deploy.sh)
|
||||
total_active_time: Die Gesamtzeit, in der der Drucker aktiv war (in Minuten).
|
||||
|
||||
## Entwicklerinformationen
|
||||
total_error_jobs: Die Gesamtzahl der Druckaufträge, die aufgrund eines Fehlers abgebrochen wurden.
|
||||
|
||||
### Raspberry Pi Einstellungen
|
||||
last_maintenance_date: Das Datum der letzten Wartung des Druckers.
|
||||
|
||||
Auf dem Raspberry Pi wurde Raspbian Lite installiert.
|
||||
Unter /srv/* sind die Projektdateien zu finden.
|
||||
Für die Tabelle printJobs:
|
||||
|
||||
### Anmeldedaten
|
||||
end_time: Die Zeit, zu der der Druckauftrag beendet wurde.
|
||||
|
||||
```
|
||||
Benutzer: myp
|
||||
Passwort: (persönlich bekannt)
|
||||
```
|
||||
was_successful: Ein boolescher Wert, der angibt, ob der Druckauftrag erfolgreich abgeschlossen wurde.
|
||||
|
||||
## Testing
|
||||
error_code: Ein Code, der einen bestimmten Fehler identifiziert, wenn der Druckauftrag abgebrochen wurde.
|
||||
|
||||
Die Frontend-App kann mit Cypress lokal getestet werden:
|
||||
Für die Tabelle users:
|
||||
|
||||
total_print_jobs: Die Gesamtzahl der Druckaufträge, die ein Benutzer gestartet hat.
|
||||
|
||||
preferred_printer_id: Die ID des Druckers, den der Benutzer am häufigsten verwendet.
|
||||
|
||||
last_login_date: Das Datum des letzten Logins des Benutzers.
|
||||
|
||||
Diese zusätzlichen Spalten könnten Ihnen dabei helfen, die oben genannten statistischen Analysen und Machine Learning-Vorhersagen durchzuführen. Bitte beachten Sie, dass Sie möglicherweise zusätzliche Logik in Ihrer Anwendung implementieren müssen, um diese Spalten zu aktualisieren, wenn entsprechende Ereignisse eintreten (z.B. ein Druckauftrag wird gestartet oder beendet, ein Benutzer loggt sich ein usw.).
|
||||
|
||||
---
|
||||
|
||||
Basierend auf Ihrem Datenbankschema, das Informationen über Drucker, Druckaufträge und Benutzer enthält, könnten Sie eine Vielzahl von statistischen Analysen und Machine Learning-Vorhersagen treffen. Hier sind einige konkrete Vorschläge:
|
||||
|
||||
### Statistische Analysen:
|
||||
1. **Auslastungsanalyse**: Bestimmen Sie die Auslastung der Drucker, indem Sie die Anzahl und Dauer der Druckaufträge analysieren.
|
||||
2. **Fehleranalyse**: Untersuchen Sie die Häufigkeit und Ursachen von abgebrochenen Druckaufträgen, um Muster zu erkennen.
|
||||
3. **Benutzerverhalten**: Analysieren Sie das Verhalten der Benutzer, z.B. welche Drucker am häufigsten verwendet werden oder zu welchen Zeiten die meisten Druckaufträge eingehen.
|
||||
|
||||
### Machine Learning-Vorhersagen:
|
||||
1. **Vorhersage der Druckerauslastung**: Verwenden Sie Zeitreihenanalysen, um zukünftige Auslastungsmuster der Drucker vorherzusagen.
|
||||
2. **Anomalieerkennung**: Setzen Sie Machine Learning ein, um Anomalien im Druckverhalten zu erkennen, die auf potenzielle Probleme hinweisen könnten.
|
||||
3. **Empfehlungssystem**: Entwickeln Sie ein Modell, das Benutzern basierend auf ihren bisherigen Druckaufträgen und Präferenzen Drucker empfiehlt.
|
||||
|
||||
### Konkrete Umsetzungsempfehlungen:
|
||||
- **Daten vorbereiten**: Reinigen und transformieren Sie Ihre Daten, um sie für die Analyse vorzubereiten. Entfernen Sie Duplikate, behandeln Sie fehlende Werte und konvertieren Sie kategoriale Daten in ein format, das von Machine Learning-Algorithmen verarbeitet werden kann.
|
||||
- **Feature Engineering**: Erstellen Sie neue Merkmale (Features), die für Vorhersagemodelle nützlich sein könnten, wie z.B. die durchschnittliche Dauer der Druckaufträge pro Benutzer oder die Gesamtzahl der Druckaufträge pro Drucker.
|
||||
- **Modellauswahl**: Wählen Sie geeignete Machine Learning-Modelle aus. Für Zeitreihenprognosen könnten ARIMA-Modelle geeignet sein, während für die Klassifizierung von Benutzerverhalten Entscheidungsbäume oder Random Forests verwendet werden könnten.
|
||||
- **Modelltraining und -validierung**: Trainieren Sie Ihre Modelle mit einem Teil Ihrer Daten und validieren Sie sie mit einem anderen Teil, um sicherzustellen, dass die Modelle gut generalisieren und nicht überangepasst sind.
|
||||
- **Ergebnisinterpretation**: Interpretieren Sie die Ergebnisse Ihrer Modelle und nutzen Sie sie, um geschäftliche Entscheidungen zu treffen oder die Benutzererfahrung auf Ihrer Plattform zu verbessern.
|
||||
|
||||
Diese Vorschläge sind abhängig von der Qualität und Quantität Ihrer Daten sowie den spezifischen Zielen, die Sie mit Ihrer Plattform verfolgen. Es ist wichtig, dass Sie die Modelle regelmäßig aktualisieren, um die Genauigkeit der Vorhersagen zu erhalten und zu verbessern.
|
||||
|
||||
Quelle: Unterhaltung mit Bing, 11.5.2024
|
||||
(1) Data Science – Nutzung von KI für Predictive Analytics - Springer. https://link.springer.com/content/pdf/10.1007/978-3-658-33731-5_27.pdf.
|
||||
(2) Predictive Analytics: Grundlagen, Projektbeispiele und Lessons ... - Haufe. https://www.haufe.de/finance/haufe-finance-office-premium/predictive-analytics-grundlagen-projektbeispiele-und-lessons-learned_idesk_PI20354_HI13561373.html.
|
||||
(3) Predictive Modelling: Was es ist und wie es dir dabei helfen kann, dein .... https://www.acquisa.de/magazin/predictive-modelling.
|
||||
(4) Deep Learning und Predictive Analytics: Vorhersage von Kundenverhalten .... https://www.hagel-it.de/it-insights/deep-learning-und-predictive-analytics-vorhersage-von-kundenverhalten-und-markttrends.html.
|
||||
(5) undefined. https://doi.org/10.1007/978-3-658-33731-5_27.
|
||||
|
||||
---
|
||||
|
||||
https://github.com/drizzle-team/drizzle-orm/discussions/1480#discussioncomment-9363695
|
||||
|
||||
---
|
||||
|
||||
Um eine 3D-Drucker Reservierungsplattform zu entwickeln und die genannten Kriterien umzusetzen, empfehle ich folgende Schritte:
|
||||
|
||||
### Kundenspezifische Anforderungen analysieren:
|
||||
1. **Stakeholder-Interviews** durchführen, um Bedürfnisse und Erwartungen zu verstehen.
|
||||
2. **Umfragen** erstellen, um Feedback von potenziellen Nutzern zu sammeln.
|
||||
3. **Anforderungsworkshops** abhalten, um gemeinsam mit den Stakeholdern Anforderungen zu definieren.
|
||||
4. **User Stories** und **Use Cases** entwickeln, um die Anforderungen zu konkretisieren.
|
||||
|
||||
### Projektumsetzung planen:
|
||||
1. **Projektziele** klar definieren und mit den betrieblichen Zielen abstimmen.
|
||||
2. **Ressourcenplanung** vornehmen, um Personal, Zeit und Budget effizient einzusetzen.
|
||||
3. **Risikoanalyse** durchführen, um potenzielle Hindernisse frühzeitig zu erkennen.
|
||||
4. **Meilensteinplanung** erstellen, um wichtige Projektphasen zu strukturieren.
|
||||
|
||||
### Daten identifizieren, klassifizieren und modellieren:
|
||||
1. **Datenquellen** identifizieren, die für die Reservierungsplattform relevant sind.
|
||||
2. **Datenklassifikation** vornehmen, um die Daten nach Typ und Sensibilität zu ordnen.
|
||||
3. **Entity-Relationship-Modelle** (ERM) erstellen, um die Beziehungen zwischen den Daten zu visualisieren.
|
||||
|
||||
### Mathematische Vorhersagemodelle und statistische Verfahren nutzen:
|
||||
1. **Regressionsanalysen** durchführen, um zukünftige Nutzungsmuster vorherzusagen.
|
||||
2. **Clusteranalysen** anwenden, um Nutzergruppen zu identifizieren und zu segmentieren.
|
||||
3. **Zeitreihenanalysen** nutzen, um Trends und saisonale Schwankungen zu erkennen.
|
||||
|
||||
### Datenqualität sicherstellen:
|
||||
1. **Validierungsregeln** implementieren, um die Eingabe korrekter Daten zu gewährleisten.
|
||||
2. **Datenbereinigung** regelmäßig durchführen, um Duplikate und Inkonsistenzen zu entfernen.
|
||||
3. **Datenintegrität** durch Referenzintegritätsprüfungen sicherstellen.
|
||||
|
||||
### Analyseergebnisse aufbereiten und Optimierungsmöglichkeiten aufzeigen:
|
||||
1. **Dashboards** entwickeln, um die wichtigsten Kennzahlen übersichtlich darzustellen.
|
||||
2. **Berichte** generieren, die detaillierte Einblicke in die Nutzungsdaten bieten.
|
||||
3. **Handlungsempfehlungen** ableiten, um die Plattform kontinuierlich zu verbessern.
|
||||
|
||||
### Projektdokumentation anforderungsgerecht erstellen:
|
||||
1. **Dokumentationsstandards** festlegen, um Einheitlichkeit zu gewährleisten.
|
||||
2. **Versionskontrolle** nutzen, um Änderungen nachvollziehbar zu machen.
|
||||
3. **Projektfortschritt** dokumentieren, um den Überblick über den aktuellen Stand zu behalten.
|
||||
|
||||
Diese Empfehlungen sollen als Leitfaden dienen, um die genannten Kriterien systematisch und strukturiert in Ihrem Abschlussprojekt umzusetzen.
|
||||
|
||||
Quelle: Unterhaltung mit Bing, 11.5.2024
|
||||
(1) Erfolgreiche Datenanalyseprojekte: Diese Strategien sollten Sie kennen. https://www.b2bsmartdata.de/blog/erfolgreiche-datenanalyseprojekte-diese-strategien-sollten-sie-kennen.
|
||||
(2) Projektdokumentation - wichtige Grundregeln | dieprojektmanager. https://dieprojektmanager.com/projektdokumentation-wichtige-grundregeln/.
|
||||
(3) Projektdokumentation: Definition, Aufbau, Inhalte und Beispiel. https://www.wirtschaftswissen.de/unternehmensfuehrung/projektmanagement/projektdokumentation-je-genauer-sie-ist-desto-weniger-arbeit-haben-sie-mit-nachfolgeprojekten/.
|
||||
(4) Was ist Datenmodellierung? | IBM. https://www.ibm.com/de-de/topics/data-modeling.
|
||||
(5) Was ist Datenmodellierung? | Microsoft Power BI. https://powerbi.microsoft.com/de-de/what-is-data-modeling/.
|
||||
(6) Inhalte Datenmodelle und Datenmodellierung Datenmodellierung ... - TUM. https://wwwbroy.in.tum.de/lehre/vorlesungen/mbe/SS07/vorlfolien/02_Datenmodellierung.pdf.
|
||||
(7) Definition von Datenmodellierung: Einsatzbereiche und Typen.. https://business.adobe.com/de/blog/basics/define-data-modeling.
|
||||
(8) 3. Informations- und Datenmodelle - RPTU. http://lgis.informatik.uni-kl.de/archiv/wwwdvs.informatik.uni-kl.de/courses/DBS/WS2000/Vorlesungsunterlagen/Kapitel.03.pdf.
|
||||
(9) Prozessoptimierung: 7 Methoden im Überblick! [2024] • Asana. https://asana.com/de/resources/process-improvement-methodologies.
|
||||
(10) Prozessoptimierung: Definition, Methoden & Praxis-Beispiele. https://peras.de/hr-blog/detail/hr-blog/prozessoptimierung.
|
||||
(11) Optimierungspotenzial erkennen - OPTANO. https://optano.com/blog/optimierungspotenzial-erkennen/.
|
||||
(12) Projektplanung: Definition, Ziele und Ablauf - wirtschaftswissen.de. https://www.wirtschaftswissen.de/unternehmensfuehrung/projektmanagement/in-nur-5-schritten-zur-fehlerfreien-projektplanung/.
|
||||
(13) Projektphasen: Die Vier! Von der Planung zur Umsetzung. https://www.pureconsultant.de/de/wissen/projektphasen/.
|
||||
(14) Hinweise zur Abschlussprüfung in den IT-Berufen (VO 2020) - IHK_DE. https://www.ihk.de/blueprint/servlet/resource/blob/5361152/008d092b38f621b2c97c66d5193d9f6c/pruefungshinweise-neue-vo-2020-data.pdf.
|
||||
(15) PAO – Projektantrag Fachinformatiker Daten- und Prozessanalyse - IHK_DE. https://www.ihk.de/blueprint/servlet/resource/blob/5673390/37eb05e451ed6051f6316f66d012cc50/projektantrag-fachinformatiker-daten-und-prozessanalyse-data.pdf.
|
||||
(16) IT-BERUFE Leitfaden zur IHK-Abschlussprüfung Fachinformatikerinnen und .... https://www.ihk.de/blueprint/servlet/resource/blob/5439816/6570224fb196bc7e10d16beeeb75fec1/neu-leitfaden-fian-data.pdf.
|
||||
(17) Fachinformatiker/-in Daten- und Prozessanalyse - IHK Nord Westfalen. https://www.ihk.de/nordwestfalen/bildung/ausbildung/ausbildungsberufe-a-z/fachinformatiker-daten-und-prozessanalyse-4767680.
|
||||
(18) Leitfaden zur IHK-Abschlussprüfung Fachinformatiker/-in .... https://www.ihk.de/blueprint/servlet/resource/blob/5682602/2fbedf4b4f33f7522d28ebc611adc909/fachinformatikerin-daten-und-prozessanalyse-data.pdf.
|
||||
(19) § 28 FIAusbV - Einzelnorm - Gesetze im Internet. https://www.gesetze-im-internet.de/fiausbv/__28.html.
|
||||
(20) Hinweise des Prüfungsausschusses zur Projektarbeit. https://www.neubrandenburg.ihk.de/fileadmin/user_upload/Aus_und_Weiterbildung/Ausbildung/Projektarbeit_Fachinformatiker_FR._Daten-_und_Prozessanalyse.pdf.
|
||||
(21) Datenqualität: Definition und Methoden zur kontinuierlichen .... https://www.acquisa.de/magazin/datenqualitaet.
|
||||
(22) Datenqualität: Definition, Merkmale und Analyse (Guide) - Kobold AI. https://www.kobold.ai/datenqualitaet-guide/.
|
||||
(23) Datenqualität: Definition und Methoden zur kontinuierlichen .... https://bing.com/search?q=Sicherstellung+der+Datenqualit%c3%a4t.
|
||||
(24) Datenqualitätsmanagement: Sicherstellung hoher Datenstandards. https://www.data-analyst.de/glossar/data-quality-management/.
|
||||
(25) Kundenspezifische Anforderungen CSR - Beratung für Managementsysteme. https://smct-management.de/kundenspezifische-anforderungen-csr-im-sinne-der-iatf-16949/.
|
||||
(26) CSR Sys - Kundenspezifische Anforderungen verwalten und bewerten. https://smct-management.de/csr-sys-kundenspezifische-anforderungen/.
|
||||
(27) Beauftragter für Customer Specific Requirements (CSR). https://www.tuev-nord.de/de/weiterbildung/seminare/beauftragter-fuer-customer-specific-requirements-csr-a/.
|
||||
(28) Kundenspezifische Anforderungen Seminar | Jetzt anfragen! - qdc. https://qdc.de/kundenspezifische-anforderungen-seminar/.
|
||||
|
||||
---
|
||||
|
||||
Um die Punkte zur Datenidentifikation, -klassifikation, -modellierung und zur Nutzung mathematischer Modelle und statistischer Verfahren weiter zu konkretisieren, finden Sie hier detaillierte Empfehlungen:
|
||||
|
||||
### Datenquellen identifizieren:
|
||||
1. **Bestandsaufnahme** der aktuellen Daten: Erfassen Sie alle Daten, die bereits im Unternehmen vorhanden sind, wie z.B. Kundeninformationen, Transaktionsdaten und Gerätenutzungsdaten.
|
||||
2. **Externe Datenquellen** prüfen: Untersuchen Sie, ob und welche externen Datenquellen wie Materiallieferanten oder Wartungsdienstleister relevant sein könnten.
|
||||
3. **IoT-Sensordaten**: Berücksichtigen Sie die Integration von IoT-Geräten, die in Echtzeit Daten über den Zustand und die Nutzung der 3D-Drucker liefern.
|
||||
|
||||
### Datenklassifikation:
|
||||
1. **Sensibilitätsstufen** festlegen: Bestimmen Sie, welche Daten sensibel sind (z.B. personenbezogene Daten) und einer besonderen Schutzstufe bedürfen.
|
||||
2. **Datenkategorien** erstellen: Ordnen Sie die Daten in Kategorien wie Nutzungsdaten, Finanzdaten, Betriebsdaten etc.
|
||||
3. **Zugriffsrechte** definieren: Legen Sie fest, wer Zugriff auf welche Daten haben darf, um die Datensicherheit zu gewährleisten.
|
||||
|
||||
### Entity-Relationship-Modelle (ERM):
|
||||
1. **Datenentitäten** identifizieren: Bestimmen Sie die Kernentitäten wie Benutzer, Drucker, Reservierungen und Materialien.
|
||||
2. **Beziehungen** festlegen: Definieren Sie, wie diese Entitäten miteinander in Beziehung stehen (z.B. ein Benutzer kann mehrere Reservierungen haben).
|
||||
3. **ERM-Tools** nutzen: Verwenden Sie Software wie Lucidchart oder Microsoft Visio, um die ERMs zu visualisieren.
|
||||
|
||||
### Regressionsanalysen:
|
||||
1. **Historische Daten** sammeln: Nutzen Sie vergangene Nutzungsdaten, um Muster zu erkennen.
|
||||
2. **Prädiktive Variablen** wählen: Identifizieren Sie Faktoren, die die Nutzung beeinflussen könnten, wie z.B. Uhrzeit, Wochentag oder Materialtyp.
|
||||
3. **Regressionsmodelle** anwenden: Nutzen Sie lineare oder logistische Regression, um zukünftige Nutzungsmuster vorherzusagen.
|
||||
|
||||
### Clusteranalysen:
|
||||
1. **Nutzersegmentierung**: Teilen Sie Nutzer basierend auf ihrem Verhalten in Gruppen ein, z.B. nach Häufigkeit der Nutzung oder bevorzugten Materialien.
|
||||
2. **K-Means-Clustering**: Verwenden Sie Algorithmen wie K-Means, um die Nutzer in sinnvolle Cluster zu segmentieren.
|
||||
3. **Cluster-Validierung**: Überprüfen Sie die Güte der Clusterbildung, um sicherzustellen, dass die Segmente aussagekräftig sind.
|
||||
|
||||
### Zeitreihenanalysen:
|
||||
1. **Zeitstempel-Daten** analysieren: Untersuchen Sie Daten mit Zeitstempeln, um Trends und Muster über die Zeit zu erkennen.
|
||||
2. **Saisonale Effekte** berücksichtigen: Identifizieren Sie saisonale Schwankungen in der Nutzung der 3D-Drucker.
|
||||
3. **ARIMA-Modelle**: Nutzen Sie autoregressive integrierte gleitende Durchschnitte (ARIMA), um zukünftige Trends zu prognostizieren.
|
||||
|
||||
Diese Methoden helfen Ihnen, ein tiefes Verständnis der Daten zu entwickeln, das für die erfolgreiche Umsetzung Ihrer Reservierungsplattform unerlässlich ist. Denken Sie daran, dass die genaue Anwendung dieser Techniken von den spezifischen Daten und Anforderungen Ihres Projekts abhängt. Es ist wichtig, dass Sie sich mit den Grundlagen der Datenanalyse und statistischen Modellierung vertraut machen, um diese Methoden effektiv anwenden zu können.
|
||||
|
||||
----
|
||||
This is a [Next.js](https://nextjs.org/) project bootstrapped with [`create-next-app`](https://github.com/vercel/next.js/tree/canary/packages/create-next-app).
|
||||
|
||||
## Getting Started
|
||||
|
||||
First, run the development server:
|
||||
|
||||
```bash
|
||||
# Installation der Abhängigkeiten
|
||||
pnpm install
|
||||
|
||||
# Starten des Entwicklungsservers
|
||||
npm run dev
|
||||
# or
|
||||
yarn dev
|
||||
# or
|
||||
pnpm dev
|
||||
|
||||
# Öffnen der Cypress-Test-UI
|
||||
pnpm cypress
|
||||
|
||||
# Ausführen aller Tests im Headless-Modus
|
||||
pnpm test
|
||||
# or
|
||||
bun dev
|
||||
```
|
||||
|
||||
Die Tests laufen ohne OAuth-Authentifizierung und simulieren einen eingeloggten Benutzer.
|
||||
Open [http://localhost:3000](http://localhost:3000) with your browser to see the result.
|
||||
|
||||
### Test-Features:
|
||||
You can start editing the page by modifying `app/page.tsx`. The page auto-updates as you edit the file.
|
||||
|
||||
- Lokaler Test auf http://localhost:3000
|
||||
- Parallel ausführbar
|
||||
- Keine GitHub OAuth-Authentifizierung erforderlich
|
||||
- Simuliert API-Aufrufe mit Mocks
|
||||
This project uses [`next/font`](https://nextjs.org/docs/basic-features/font-optimization) to automatically optimize and load Inter, a custom Google Font.
|
||||
|
||||
## Learn More
|
||||
|
||||
To learn more about Next.js, take a look at the following resources:
|
||||
|
||||
- [Next.js Documentation](https://nextjs.org/docs) - learn about Next.js features and API.
|
||||
- [Learn Next.js](https://nextjs.org/learn) - an interactive Next.js tutorial.
|
||||
|
||||
You can check out [the Next.js GitHub repository](https://github.com/vercel/next.js/) - your feedback and contributions are welcome!
|
||||
|
||||
## Deploy on Vercel
|
||||
|
||||
The easiest way to deploy your Next.js app is to use the [Vercel Platform](https://vercel.com/new?utm_medium=default-template&filter=next.js&utm_source=create-next-app&utm_campaign=create-next-app-readme) from the creators of Next.js.
|
||||
|
||||
Check out our [Next.js deployment documentation](https://nextjs.org/docs/deployment) for more details.
|
||||
|
0
packages/reservation-platform/biome.json
Executable file → Normal file
0
packages/reservation-platform/biome.json
Executable file → Normal file
0
packages/reservation-platform/components.json
Executable file → Normal file
0
packages/reservation-platform/components.json
Executable file → Normal file
@ -1,18 +0,0 @@
|
||||
import { defineConfig } from 'cypress'
|
||||
|
||||
export default defineConfig({
|
||||
e2e: {
|
||||
baseUrl: 'http://localhost:3000',
|
||||
supportFile: false,
|
||||
specPattern: 'cypress/e2e/**/*.cy.{js,jsx,ts,tsx}',
|
||||
},
|
||||
component: {
|
||||
devServer: {
|
||||
framework: 'next',
|
||||
bundler: 'webpack',
|
||||
},
|
||||
},
|
||||
env: {
|
||||
backendUrl: 'http://localhost:5000',
|
||||
},
|
||||
})
|
@ -1,45 +0,0 @@
|
||||
version: '3.8'
|
||||
|
||||
services:
|
||||
# Backend service
|
||||
backend:
|
||||
build:
|
||||
context: ../../../backend
|
||||
dockerfile: Dockerfile
|
||||
container_name: myp-backend-test
|
||||
ports:
|
||||
- "5000:5000"
|
||||
environment:
|
||||
- SECRET_KEY=testsecretkey123456789
|
||||
- DATABASE_URL=sqlite:///myp.db
|
||||
- FLASK_ENV=development
|
||||
- TESTING=true
|
||||
volumes:
|
||||
- backend-test-data:/app/instance
|
||||
restart: unless-stopped
|
||||
networks:
|
||||
- test-network
|
||||
|
||||
# Optional: Frontend test service if needed
|
||||
frontend-test:
|
||||
image: cypress/included:13.6.1
|
||||
container_name: myp-frontend-test
|
||||
depends_on:
|
||||
- backend
|
||||
environment:
|
||||
- CYPRESS_baseUrl=http://host.docker.internal:3000
|
||||
- CYPRESS_backendUrl=http://backend:5000
|
||||
volumes:
|
||||
- ..:/app
|
||||
- ./cypress.config.ts:/app/cypress.config.ts
|
||||
working_dir: /app
|
||||
command: npx cypress run
|
||||
networks:
|
||||
- test-network
|
||||
|
||||
networks:
|
||||
test-network:
|
||||
driver: bridge
|
||||
|
||||
volumes:
|
||||
backend-test-data:
|
@ -1,19 +0,0 @@
|
||||
describe('Homepage', () => {
|
||||
beforeEach(() => {
|
||||
cy.visit('/')
|
||||
})
|
||||
|
||||
it('loads the homepage successfully', () => {
|
||||
cy.contains('Manage Your Printers')
|
||||
cy.get('a[href="/printer"]').should('exist')
|
||||
})
|
||||
|
||||
it('shows printer cards', () => {
|
||||
cy.get('[class*="w-auto h-36"]').should('exist')
|
||||
})
|
||||
|
||||
it('has working navigation', () => {
|
||||
cy.get('header').should('exist')
|
||||
cy.get('a[href="/"]').should('exist')
|
||||
})
|
||||
})
|
@ -1,30 +0,0 @@
|
||||
describe('Printer Pages', () => {
|
||||
it('loads printer detail page', () => {
|
||||
// Setup a basic printer route with a simple mock
|
||||
cy.intercept('GET', '/api/printers/*', {
|
||||
id: '1',
|
||||
name: 'Test Drucker',
|
||||
description: 'Ein Testdrucker',
|
||||
status: 'available'
|
||||
}).as('getPrinter')
|
||||
|
||||
cy.visit('/printer/1')
|
||||
cy.wait('@getPrinter')
|
||||
cy.contains('Test Drucker')
|
||||
})
|
||||
|
||||
it('shows all printers', () => {
|
||||
// Mock printers list
|
||||
cy.intercept('GET', '/api/printers', [
|
||||
{ id: '1', name: 'Drucker 1', status: 'available' },
|
||||
{ id: '2', name: 'Drucker 2', status: 'in_use' },
|
||||
{ id: '3', name: 'Drucker 3', status: 'maintenance' }
|
||||
]).as('getPrinters')
|
||||
|
||||
cy.visit('/')
|
||||
cy.wait('@getPrinters')
|
||||
cy.contains('Drucker 1')
|
||||
cy.contains('Drucker 2')
|
||||
cy.contains('Drucker 3')
|
||||
})
|
||||
})
|
@ -1,52 +0,0 @@
|
||||
describe('Printer reservation workflow', () => {
|
||||
beforeEach(() => {
|
||||
// Login without OAuth
|
||||
cy.login()
|
||||
|
||||
// Mock API responses
|
||||
cy.intercept('GET', '/api/printers', [
|
||||
{
|
||||
id: '1',
|
||||
name: 'Drucker 1',
|
||||
description: 'Test Drucker',
|
||||
status: 'available',
|
||||
printJobs: []
|
||||
}
|
||||
]).as('getPrinters')
|
||||
})
|
||||
|
||||
it('allows a user to view and reserve a printer', () => {
|
||||
cy.visit('/')
|
||||
cy.wait('@getPrinters')
|
||||
|
||||
// Check printer is shown and available
|
||||
cy.contains('Drucker 1')
|
||||
cy.contains('Verfügbar')
|
||||
|
||||
// Start reservation process
|
||||
cy.contains('Reservieren').click()
|
||||
|
||||
// Fill in the form
|
||||
cy.get('input[name="hours"]').clear().type('1')
|
||||
cy.get('input[name="minutes"]').clear().type('30')
|
||||
cy.get('textarea[name="comments"]').type('Testauftrag')
|
||||
|
||||
// Mock job creation
|
||||
cy.intercept('POST', '/api/printers/*/reserve', {
|
||||
id: 'job-123',
|
||||
printerId: '1',
|
||||
userId: 'test-user-id',
|
||||
startTime: new Date().toISOString(),
|
||||
endTime: new Date(Date.now() + 90 * 60000).toISOString(),
|
||||
status: 'active'
|
||||
}).as('createJob')
|
||||
|
||||
// Submit the form
|
||||
cy.contains('button', 'Reservieren').click()
|
||||
cy.wait('@createJob')
|
||||
|
||||
// Verify successful reservation
|
||||
cy.url().should('include', '/job/')
|
||||
cy.contains('Druckauftrag').should('exist')
|
||||
})
|
||||
})
|
@ -1,151 +0,0 @@
|
||||
#!/bin/bash
|
||||
|
||||
# Script to start a test environment with backend and optional test runner
|
||||
|
||||
SCRIPT_DIR="$( cd "$( dirname "${BASH_SOURCE[0]}" )" && pwd )"
|
||||
PARENT_DIR="$(dirname "$SCRIPT_DIR")"
|
||||
BACKEND_DIR="$(dirname "$(dirname "$PARENT_DIR")")/backend"
|
||||
|
||||
# Colors for output
|
||||
GREEN='\033[0;32m'
|
||||
YELLOW='\033[0;33m'
|
||||
RED='\033[0;31m'
|
||||
NC='\033[0m' # No Color
|
||||
|
||||
echo -e "${GREEN}Starting MYP test environment...${NC}"
|
||||
echo "Script directory: $SCRIPT_DIR"
|
||||
echo "Frontend directory: $PARENT_DIR"
|
||||
echo "Backend directory: $BACKEND_DIR"
|
||||
|
||||
# Check if Docker is available
|
||||
if ! command -v docker &> /dev/null; then
|
||||
echo -e "${RED}Error: Docker is not installed or not in PATH${NC}"
|
||||
exit 1
|
||||
fi
|
||||
|
||||
# Check if docker-compose is available
|
||||
if ! command -v docker-compose &> /dev/null && ! command -v docker compose &> /dev/null; then
|
||||
echo -e "${RED}Error: Neither docker-compose nor docker compose is available${NC}"
|
||||
exit 1
|
||||
fi
|
||||
|
||||
# Check if running in container
|
||||
IN_CONTAINER=false
|
||||
if [ -f /.dockerenv ]; then
|
||||
IN_CONTAINER=true
|
||||
fi
|
||||
|
||||
# Check if Docker is available and if we need sudo
|
||||
NEED_SUDO=false
|
||||
if [ "$IN_CONTAINER" = false ]; then
|
||||
if ! docker ps &> /dev/null; then
|
||||
if sudo docker ps &> /dev/null; then
|
||||
echo -e "${YELLOW}Warning: Docker daemon requires sudo access. Will use sudo for all Docker commands.${NC}"
|
||||
NEED_SUDO=true
|
||||
fi
|
||||
fi
|
||||
fi
|
||||
|
||||
# Function to run docker compose (handles both docker-compose and docker compose syntax)
|
||||
run_docker_compose() {
|
||||
if [ "$NEED_SUDO" = true ]; then
|
||||
if command -v docker-compose &> /dev/null; then
|
||||
sudo docker-compose "$@"
|
||||
else
|
||||
sudo docker compose "$@"
|
||||
fi
|
||||
else
|
||||
if command -v docker-compose &> /dev/null; then
|
||||
docker-compose "$@"
|
||||
else
|
||||
docker compose "$@"
|
||||
fi
|
||||
fi
|
||||
}
|
||||
|
||||
# Check if backend Docker image exists
|
||||
echo -e "${YELLOW}Checking for backend Docker image...${NC}"
|
||||
cd "$SCRIPT_DIR"
|
||||
|
||||
# Start the backend container
|
||||
echo -e "${GREEN}Starting backend container...${NC}"
|
||||
run_docker_compose -f docker-compose.test.yml up -d backend
|
||||
|
||||
# Wait for backend to be ready
|
||||
echo -e "${YELLOW}Waiting for backend to be ready...${NC}"
|
||||
max_attempts=30
|
||||
attempt=1
|
||||
backend_ready=false
|
||||
|
||||
while [ $attempt -le $max_attempts ] && [ "$backend_ready" = "false" ]; do
|
||||
echo "Checking backend readiness (attempt $attempt/$max_attempts)..."
|
||||
|
||||
if curl -s http://localhost:5000/api/health 2>&1 | grep -q "healthy"; then
|
||||
backend_ready=true
|
||||
echo -e "${GREEN}Backend is ready!${NC}"
|
||||
else
|
||||
echo "Backend not ready yet, waiting..."
|
||||
sleep 2
|
||||
attempt=$((attempt+1))
|
||||
fi
|
||||
done
|
||||
|
||||
if [ "$backend_ready" = "false" ]; then
|
||||
echo -e "${RED}Backend failed to start properly after $max_attempts attempts${NC}"
|
||||
echo "Logs from backend container:"
|
||||
run_docker_compose -f docker-compose.test.yml logs backend
|
||||
exit 1
|
||||
fi
|
||||
|
||||
# Start frontend development server if it's not already running
|
||||
if ! curl -s http://localhost:3000 > /dev/null; then
|
||||
echo -e "${YELLOW}Starting frontend development server...${NC}"
|
||||
cd "$PARENT_DIR"
|
||||
|
||||
# Run in background
|
||||
echo "Starting Next.js development server in the background..."
|
||||
nohup pnpm dev > "$SCRIPT_DIR/frontend.log" 2>&1 &
|
||||
|
||||
# Store the PID for later cleanup
|
||||
FRONTEND_PID=$!
|
||||
echo $FRONTEND_PID > "$SCRIPT_DIR/frontend.pid"
|
||||
|
||||
echo -e "${GREEN}Frontend development server started with PID $FRONTEND_PID${NC}"
|
||||
echo "Frontend logs available at: $SCRIPT_DIR/frontend.log"
|
||||
|
||||
# Wait for frontend to be ready
|
||||
echo -e "${YELLOW}Waiting for frontend to be ready...${NC}"
|
||||
max_attempts=30
|
||||
attempt=1
|
||||
frontend_ready=false
|
||||
|
||||
while [ $attempt -le $max_attempts ] && [ "$frontend_ready" = "false" ]; do
|
||||
echo "Checking frontend readiness (attempt $attempt/$max_attempts)..."
|
||||
|
||||
if curl -s http://localhost:3000 > /dev/null; then
|
||||
frontend_ready=true
|
||||
echo -e "${GREEN}Frontend is ready!${NC}"
|
||||
else
|
||||
echo "Frontend not ready yet, waiting..."
|
||||
sleep 2
|
||||
attempt=$((attempt+1))
|
||||
fi
|
||||
done
|
||||
|
||||
if [ "$frontend_ready" = "false" ]; then
|
||||
echo -e "${RED}Frontend failed to start properly${NC}"
|
||||
exit 1
|
||||
fi
|
||||
else
|
||||
echo -e "${GREEN}Frontend already running at http://localhost:3000${NC}"
|
||||
fi
|
||||
|
||||
echo -e "${GREEN}Test environment is ready!${NC}"
|
||||
echo "Backend is available at: http://localhost:5000"
|
||||
echo "Frontend is available at: http://localhost:3000"
|
||||
echo ""
|
||||
echo "To run Cypress tests:"
|
||||
echo " cd $PARENT_DIR && pnpm cypress"
|
||||
echo ""
|
||||
echo "To stop the test environment:"
|
||||
echo " $SCRIPT_DIR/stop-test-environment.sh"
|
@ -1,73 +0,0 @@
|
||||
#!/bin/bash
|
||||
|
||||
# Script to stop the test environment
|
||||
|
||||
SCRIPT_DIR="$( cd "$( dirname "${BASH_SOURCE[0]}" )" && pwd )"
|
||||
PARENT_DIR="$(dirname "$SCRIPT_DIR")"
|
||||
|
||||
# Colors for output
|
||||
GREEN='\033[0;32m'
|
||||
YELLOW='\033[0;33m'
|
||||
RED='\033[0;31m'
|
||||
NC='\033[0m' # No Color
|
||||
|
||||
echo -e "${YELLOW}Stopping MYP test environment...${NC}"
|
||||
|
||||
# Check if running in container
|
||||
IN_CONTAINER=false
|
||||
if [ -f /.dockerenv ]; then
|
||||
IN_CONTAINER=true
|
||||
fi
|
||||
|
||||
# Check if Docker is available and if we need sudo
|
||||
NEED_SUDO=false
|
||||
if [ "$IN_CONTAINER" = false ]; then
|
||||
if ! docker ps &> /dev/null; then
|
||||
if sudo docker ps &> /dev/null; then
|
||||
echo -e "${YELLOW}Warning: Docker daemon requires sudo access. Will use sudo for all Docker commands.${NC}"
|
||||
NEED_SUDO=true
|
||||
fi
|
||||
fi
|
||||
fi
|
||||
|
||||
# Function to run docker compose (handles both docker-compose and docker compose syntax)
|
||||
run_docker_compose() {
|
||||
if [ "$NEED_SUDO" = true ]; then
|
||||
if command -v docker-compose &> /dev/null; then
|
||||
sudo docker-compose "$@"
|
||||
else
|
||||
sudo docker compose "$@"
|
||||
fi
|
||||
else
|
||||
if command -v docker-compose &> /dev/null; then
|
||||
docker-compose "$@"
|
||||
else
|
||||
docker compose "$@"
|
||||
fi
|
||||
fi
|
||||
}
|
||||
|
||||
# Stop the backend container
|
||||
echo "Stopping backend containers..."
|
||||
cd "$SCRIPT_DIR"
|
||||
run_docker_compose -f docker-compose.test.yml down
|
||||
|
||||
# Stop the frontend development server if we started it
|
||||
if [ -f "$SCRIPT_DIR/frontend.pid" ]; then
|
||||
FRONTEND_PID=$(cat "$SCRIPT_DIR/frontend.pid")
|
||||
echo "Stopping frontend development server (PID: $FRONTEND_PID)..."
|
||||
|
||||
if kill -0 $FRONTEND_PID 2>/dev/null; then
|
||||
kill $FRONTEND_PID
|
||||
echo "Frontend development server stopped"
|
||||
else
|
||||
echo "Frontend development server is not running with PID $FRONTEND_PID"
|
||||
fi
|
||||
|
||||
rm -f "$SCRIPT_DIR/frontend.pid"
|
||||
rm -f "$SCRIPT_DIR/frontend.log"
|
||||
else
|
||||
echo "No frontend PID file found, assuming it was started externally"
|
||||
fi
|
||||
|
||||
echo -e "${GREEN}Test environment has been stopped${NC}"
|
@ -1,33 +0,0 @@
|
||||
// -- This is a parent command --
|
||||
Cypress.Commands.add('login', () => {
|
||||
// Simulate logged in user without OAuth
|
||||
window.localStorage.setItem('myp:user', JSON.stringify({
|
||||
id: 'test-user-id',
|
||||
name: 'Test User',
|
||||
email: 'test@example.com',
|
||||
role: 'user'
|
||||
}))
|
||||
})
|
||||
|
||||
// -- This is a child command --
|
||||
Cypress.Commands.add('createPrintJob', (printerId, duration) => {
|
||||
cy.intercept('POST', `/api/printers/${printerId}/reserve`, {
|
||||
id: 'test-job-id',
|
||||
printerId,
|
||||
userId: 'test-user-id',
|
||||
startTime: new Date().toISOString(),
|
||||
endTime: new Date(Date.now() + duration * 60000).toISOString(),
|
||||
status: 'active'
|
||||
}).as('createJob')
|
||||
|
||||
return cy.wrap('test-job-id')
|
||||
})
|
||||
|
||||
declare global {
|
||||
namespace Cypress {
|
||||
interface Chainable {
|
||||
login(): Chainable<void>
|
||||
createPrintJob(printerId: string, duration: number): Chainable<string>
|
||||
}
|
||||
}
|
||||
}
|
@ -1,12 +0,0 @@
|
||||
{
|
||||
"compilerOptions": {
|
||||
"target": "es5",
|
||||
"lib": ["es5", "dom"],
|
||||
"types": ["cypress", "node"],
|
||||
"baseUrl": "..",
|
||||
"paths": {
|
||||
"@/*": ["./src/*"]
|
||||
}
|
||||
},
|
||||
"include": ["**/*.ts"]
|
||||
}
|
@ -8,9 +8,16 @@ services:
|
||||
container_name: myp-frontend
|
||||
network_mode: host
|
||||
environment:
|
||||
- RUNTIME_ENVIRONMENT=${RUNTIME_ENVIRONMENT:-dev}
|
||||
- RUNTIME_ENVIRONMENT=${RUNTIME_ENVIRONMENT:-prod}
|
||||
- OAUTH_CLIENT_ID=${OAUTH_CLIENT_ID:-client_id}
|
||||
- OAUTH_CLIENT_SECRET=${OAUTH_CLIENT_SECRET:-client_secret}
|
||||
- NEXT_PUBLIC_API_URL=${NEXT_PUBLIC_API_URL:-http://localhost:5000}
|
||||
volumes:
|
||||
- ./db:/app/db
|
||||
restart: unless-stopped
|
||||
restart: unless-stopped
|
||||
healthcheck:
|
||||
test: ["CMD", "wget", "--spider", "http://localhost:3000"]
|
||||
interval: 30s
|
||||
timeout: 10s
|
||||
retries: 3
|
||||
start_period: 40s
|
@ -1,31 +0,0 @@
|
||||
#!/bin/bash
|
||||
|
||||
# Define image name
|
||||
MYP_RP_IMAGE_NAME="myp-rp"
|
||||
|
||||
# Function to build Docker image
|
||||
build_image() {
|
||||
local image_name=$1
|
||||
local dockerfile=$2
|
||||
local platform=$3
|
||||
|
||||
echo "Building $image_name Docker image for $platform..."
|
||||
|
||||
docker buildx build --platform $platform -t ${image_name}:latest -f $dockerfile --load .
|
||||
if [ $? -eq 0 ]; then
|
||||
echo "$image_name Docker image built successfully"
|
||||
else
|
||||
echo "Error occurred while building $image_name Docker image"
|
||||
exit 1
|
||||
fi
|
||||
}
|
||||
|
||||
# Create and use a builder instance (if not already created)
|
||||
BUILDER_NAME="myp-rp-arm64-builder"
|
||||
docker buildx create --name $BUILDER_NAME --use || docker buildx use $BUILDER_NAME
|
||||
|
||||
# Build myp-rp image
|
||||
build_image "$MYP_RP_IMAGE_NAME" "$PWD/Dockerfile" "linux/arm64"
|
||||
|
||||
# Remove the builder instance
|
||||
docker buildx rm $BUILDER_NAME
|
@ -1,8 +0,0 @@
|
||||
{
|
||||
debug
|
||||
}
|
||||
|
||||
m040tbaraspi001.de040.corpintra.net, m040tbaraspi001.de040.corpinter.net, localhost {
|
||||
reverse_proxy myp-rp:3000
|
||||
tls internal
|
||||
}
|
@ -1 +0,0 @@
|
||||
{"apps":{"http":{"servers":{"srv0":{"listen":[":443"],"routes":[{"handle":[{"handler":"subroute","routes":[{"handle":[{"handler":"reverse_proxy","upstreams":[{"dial":"myp-rp:3000"}]}]}]}],"match":[{"host":["m040tbaraspi001.de040.corpintra.net","m040tbaraspi001.de040.corpinter.net","localhost"]}],"terminal":true}]}}},"tls":{"automation":{"policies":[{"issuers":[{"module":"internal"}],"subjects":["localhost","m040tbaraspi001.de040.corpinter.net","m040tbaraspi001.de040.corpintra.net"]}]}}},"logging":{"logs":{"default":{"level":"DEBUG"}}}}
|
@ -1,24 +0,0 @@
|
||||
-----BEGIN CERTIFICATE-----
|
||||
MIIBvTCCAWSgAwIBAgIRAPU9l/UbzcL7IMHIB3R4jREwCgYIKoZIzj0EAwIwMzEx
|
||||
MC8GA1UEAxMoQ2FkZHkgTG9jYWwgQXV0aG9yaXR5IC0gRUNDIEludGVybWVkaWF0
|
||||
ZTAeFw0yNTAzMjYxMjQ4NDRaFw0yNTAzMjcwMDQ4NDRaMAAwWTATBgcqhkjOPQIB
|
||||
BggqhkjOPQMBBwNCAAS6t64LWdLKVIEIlg/9X+ob/4evs4EGUxK8TrBqQcjpJvxr
|
||||
JjPK9YpPa1Dmuko2JFo4hB2zgSf4esb9Ew2eiGzzo4GLMIGIMA4GA1UdDwEB/wQE
|
||||
AwIHgDAdBgNVHSUEFjAUBggrBgEFBQcDAQYIKwYBBQUHAwIwHQYDVR0OBBYEFDpn
|
||||
k4oFx8oHjltlaD8RBYv7JoJIMB8GA1UdIwQYMBaAFNtT2XbJADGNGXiDvCHh7UGq
|
||||
nU0UMBcGA1UdEQEB/wQNMAuCCWxvY2FsaG9zdDAKBggqhkjOPQQDAgNHADBEAiB4
|
||||
UFAFZMQLnMjmmOAfWQeJU7QQN7Wn0BaD4LAON8KdewIgCUOQA0sqsxnKDijW3hds
|
||||
p94i7WbY6PwRLuI7HpMA6YM=
|
||||
-----END CERTIFICATE-----
|
||||
-----BEGIN CERTIFICATE-----
|
||||
MIIBxzCCAW2gAwIBAgIQBxtri0u0IUbQucD648jSujAKBggqhkjOPQQDAjAwMS4w
|
||||
LAYDVQQDEyVDYWRkeSBMb2NhbCBBdXRob3JpdHkgLSAyMDI1IEVDQyBSb290MB4X
|
||||
DTI1MDMyNjEyNDIzOFoXDTI1MDQwMjEyNDIzOFowMzExMC8GA1UEAxMoQ2FkZHkg
|
||||
TG9jYWwgQXV0aG9yaXR5IC0gRUNDIEludGVybWVkaWF0ZTBZMBMGByqGSM49AgEG
|
||||
CCqGSM49AwEHA0IABABjG5Mz+vTRqVKwIduy5DU7JV/RqAYhca7lJ0Mvm07qaDzE
|
||||
fCJrJ9NfwoH6DWO5nKvEG1GrqUjoZGeAZKV6i0mjZjBkMA4GA1UdDwEB/wQEAwIB
|
||||
BjASBgNVHRMBAf8ECDAGAQH/AgEAMB0GA1UdDgQWBBTbU9l2yQAxjRl4g7wh4e1B
|
||||
qp1NFDAfBgNVHSMEGDAWgBQj0TqTz+i+mgniWIorz1LMFKeXPDAKBggqhkjOPQQD
|
||||
AgNIADBFAiEA5beidpDU9mWSjsa55zdyuLI1UK/Fj6DxIuv5WtDnnb4CIFU1saeM
|
||||
dQ8SoCntwSJJhWhwglyhhKN9hxQfnZ0E9MDF
|
||||
-----END CERTIFICATE-----
|
@ -1,6 +0,0 @@
|
||||
{
|
||||
"sans": [
|
||||
"localhost"
|
||||
],
|
||||
"issuer_data": null
|
||||
}
|
@ -1,5 +0,0 @@
|
||||
-----BEGIN EC PRIVATE KEY-----
|
||||
MHcCAQEEICa958r36l062opbnc8sNTtdpMo+sBFkl3NjXYBEA+1ooAoGCCqGSM49
|
||||
AwEHoUQDQgAEureuC1nSylSBCJYP/V/qG/+Hr7OBBlMSvE6wakHI6Sb8ayYzyvWK
|
||||
T2tQ5rpKNiRaOIQds4En+HrG/RMNnohs8w==
|
||||
-----END EC PRIVATE KEY-----
|
@ -1,24 +0,0 @@
|
||||
-----BEGIN CERTIFICATE-----
|
||||
MIIB2DCCAX6gAwIBAgIRAPVXFTo6d7jESLMLxMZKplgwCgYIKoZIzj0EAwIwMzEx
|
||||
MC8GA1UEAxMoQ2FkZHkgTG9jYWwgQXV0aG9yaXR5IC0gRUNDIEludGVybWVkaWF0
|
||||
ZTAeFw0yNTAzMjYxMjQyMzhaFw0yNTAzMjcwMDQyMzhaMAAwWTATBgcqhkjOPQIB
|
||||
BggqhkjOPQMBBwNCAARx/pRcXBw+x3+m3SQSaYXPGV+NCBq1zgeMcC6G/xTTpDny
|
||||
w8OTejy817yfEKex8B2FuwRvC+mH2Bd9BPvnRakHo4GlMIGiMA4GA1UdDwEB/wQE
|
||||
AwIHgDAdBgNVHSUEFjAUBggrBgEFBQcDAQYIKwYBBQUHAwIwHQYDVR0OBBYEFMBP
|
||||
yCSwbLaKF/HYd4RLcMPKM/HPMB8GA1UdIwQYMBaAFNtT2XbJADGNGXiDvCHh7UGq
|
||||
nU0UMDEGA1UdEQEB/wQnMCWCI20wNDB0YmFyYXNwaTAwMS5kZTA0MC5jb3JwaW50
|
||||
ZXIubmV0MAoGCCqGSM49BAMCA0gAMEUCIQCO+fh6TpZDHg3b44SmtspcmIfc2jkd
|
||||
CMdWW32ByhRffAIgDxUBsifWaNgUMHhFpVEGm4K0XEvBR8iAHrGkMluEQ54=
|
||||
-----END CERTIFICATE-----
|
||||
-----BEGIN CERTIFICATE-----
|
||||
MIIBxzCCAW2gAwIBAgIQBxtri0u0IUbQucD648jSujAKBggqhkjOPQQDAjAwMS4w
|
||||
LAYDVQQDEyVDYWRkeSBMb2NhbCBBdXRob3JpdHkgLSAyMDI1IEVDQyBSb290MB4X
|
||||
DTI1MDMyNjEyNDIzOFoXDTI1MDQwMjEyNDIzOFowMzExMC8GA1UEAxMoQ2FkZHkg
|
||||
TG9jYWwgQXV0aG9yaXR5IC0gRUNDIEludGVybWVkaWF0ZTBZMBMGByqGSM49AgEG
|
||||
CCqGSM49AwEHA0IABABjG5Mz+vTRqVKwIduy5DU7JV/RqAYhca7lJ0Mvm07qaDzE
|
||||
fCJrJ9NfwoH6DWO5nKvEG1GrqUjoZGeAZKV6i0mjZjBkMA4GA1UdDwEB/wQEAwIB
|
||||
BjASBgNVHRMBAf8ECDAGAQH/AgEAMB0GA1UdDgQWBBTbU9l2yQAxjRl4g7wh4e1B
|
||||
qp1NFDAfBgNVHSMEGDAWgBQj0TqTz+i+mgniWIorz1LMFKeXPDAKBggqhkjOPQQD
|
||||
AgNIADBFAiEA5beidpDU9mWSjsa55zdyuLI1UK/Fj6DxIuv5WtDnnb4CIFU1saeM
|
||||
dQ8SoCntwSJJhWhwglyhhKN9hxQfnZ0E9MDF
|
||||
-----END CERTIFICATE-----
|
@ -1,6 +0,0 @@
|
||||
{
|
||||
"sans": [
|
||||
"m040tbaraspi001.de040.corpinter.net"
|
||||
],
|
||||
"issuer_data": null
|
||||
}
|
@ -1,5 +0,0 @@
|
||||
-----BEGIN EC PRIVATE KEY-----
|
||||
MHcCAQEEIKKTHxhW36UGnXNu76awScVKin+p/jOIQgk8PiMzJBEpoAoGCCqGSM49
|
||||
AwEHoUQDQgAEcf6UXFwcPsd/pt0kEmmFzxlfjQgatc4HjHAuhv8U06Q58sPDk3o8
|
||||
vNe8nxCnsfAdhbsEbwvph9gXfQT750WpBw==
|
||||
-----END EC PRIVATE KEY-----
|
@ -1,24 +0,0 @@
|
||||
-----BEGIN CERTIFICATE-----
|
||||
MIIB2DCCAX2gAwIBAgIQWtKcUuqi4m7Il54RGR2BezAKBggqhkjOPQQDAjAzMTEw
|
||||
LwYDVQQDEyhDYWRkeSBMb2NhbCBBdXRob3JpdHkgLSBFQ0MgSW50ZXJtZWRpYXRl
|
||||
MB4XDTI1MDMyNjEyNDIzOFoXDTI1MDMyNzAwNDIzOFowADBZMBMGByqGSM49AgEG
|
||||
CCqGSM49AwEHA0IABDe6dkJkIlyLsbuphvIifPbRI1k42pG0Ec3NqDsdi1MfFCFS
|
||||
OBCj7oOIEtSUfYcV5AVeerBW1I6s+t8cMvAhYMSjgaUwgaIwDgYDVR0PAQH/BAQD
|
||||
AgeAMB0GA1UdJQQWMBQGCCsGAQUFBwMBBggrBgEFBQcDAjAdBgNVHQ4EFgQUOmn0
|
||||
iGuTKiGBlFFThWjQTsg3sA4wHwYDVR0jBBgwFoAU21PZdskAMY0ZeIO8IeHtQaqd
|
||||
TRQwMQYDVR0RAQH/BCcwJYIjbTA0MHRiYXJhc3BpMDAxLmRlMDQwLmNvcnBpbnRy
|
||||
YS5uZXQwCgYIKoZIzj0EAwIDSQAwRgIhANZAovSh7bSGW39f1K9E5COVm6YbWGdU
|
||||
tTw9zoUf34ahAiEAjPuVRxKE6cb57SYmHFXiMn+LfN9Dbxr/jVaFIWbRiUo=
|
||||
-----END CERTIFICATE-----
|
||||
-----BEGIN CERTIFICATE-----
|
||||
MIIBxzCCAW2gAwIBAgIQBxtri0u0IUbQucD648jSujAKBggqhkjOPQQDAjAwMS4w
|
||||
LAYDVQQDEyVDYWRkeSBMb2NhbCBBdXRob3JpdHkgLSAyMDI1IEVDQyBSb290MB4X
|
||||
DTI1MDMyNjEyNDIzOFoXDTI1MDQwMjEyNDIzOFowMzExMC8GA1UEAxMoQ2FkZHkg
|
||||
TG9jYWwgQXV0aG9yaXR5IC0gRUNDIEludGVybWVkaWF0ZTBZMBMGByqGSM49AgEG
|
||||
CCqGSM49AwEHA0IABABjG5Mz+vTRqVKwIduy5DU7JV/RqAYhca7lJ0Mvm07qaDzE
|
||||
fCJrJ9NfwoH6DWO5nKvEG1GrqUjoZGeAZKV6i0mjZjBkMA4GA1UdDwEB/wQEAwIB
|
||||
BjASBgNVHRMBAf8ECDAGAQH/AgEAMB0GA1UdDgQWBBTbU9l2yQAxjRl4g7wh4e1B
|
||||
qp1NFDAfBgNVHSMEGDAWgBQj0TqTz+i+mgniWIorz1LMFKeXPDAKBggqhkjOPQQD
|
||||
AgNIADBFAiEA5beidpDU9mWSjsa55zdyuLI1UK/Fj6DxIuv5WtDnnb4CIFU1saeM
|
||||
dQ8SoCntwSJJhWhwglyhhKN9hxQfnZ0E9MDF
|
||||
-----END CERTIFICATE-----
|
@ -1,6 +0,0 @@
|
||||
{
|
||||
"sans": [
|
||||
"m040tbaraspi001.de040.corpintra.net"
|
||||
],
|
||||
"issuer_data": null
|
||||
}
|
@ -1,5 +0,0 @@
|
||||
-----BEGIN EC PRIVATE KEY-----
|
||||
MHcCAQEEIA3vXldJ16IzTZetwcSYa08RyRxst+Lpjm9TKt7yYU6+oAoGCCqGSM49
|
||||
AwEHoUQDQgAEN7p2QmQiXIuxu6mG8iJ89tEjWTjakbQRzc2oOx2LUx8UIVI4EKPu
|
||||
g4gS1JR9hxXkBV56sFbUjqz63xwy8CFgxA==
|
||||
-----END EC PRIVATE KEY-----
|
@ -1 +0,0 @@
|
||||
e9f99540-c0cf-4046-a79f-148307ff52a5
|
@ -1 +0,0 @@
|
||||
{"tls":{"timestamp":"2025-03-26T12:42:38.600855506Z","instance_id":"e9f99540-c0cf-4046-a79f-148307ff52a5"}}
|
@ -1,12 +0,0 @@
|
||||
-----BEGIN CERTIFICATE-----
|
||||
MIIBxzCCAW2gAwIBAgIQBxtri0u0IUbQucD648jSujAKBggqhkjOPQQDAjAwMS4w
|
||||
LAYDVQQDEyVDYWRkeSBMb2NhbCBBdXRob3JpdHkgLSAyMDI1IEVDQyBSb290MB4X
|
||||
DTI1MDMyNjEyNDIzOFoXDTI1MDQwMjEyNDIzOFowMzExMC8GA1UEAxMoQ2FkZHkg
|
||||
TG9jYWwgQXV0aG9yaXR5IC0gRUNDIEludGVybWVkaWF0ZTBZMBMGByqGSM49AgEG
|
||||
CCqGSM49AwEHA0IABABjG5Mz+vTRqVKwIduy5DU7JV/RqAYhca7lJ0Mvm07qaDzE
|
||||
fCJrJ9NfwoH6DWO5nKvEG1GrqUjoZGeAZKV6i0mjZjBkMA4GA1UdDwEB/wQEAwIB
|
||||
BjASBgNVHRMBAf8ECDAGAQH/AgEAMB0GA1UdDgQWBBTbU9l2yQAxjRl4g7wh4e1B
|
||||
qp1NFDAfBgNVHSMEGDAWgBQj0TqTz+i+mgniWIorz1LMFKeXPDAKBggqhkjOPQQD
|
||||
AgNIADBFAiEA5beidpDU9mWSjsa55zdyuLI1UK/Fj6DxIuv5WtDnnb4CIFU1saeM
|
||||
dQ8SoCntwSJJhWhwglyhhKN9hxQfnZ0E9MDF
|
||||
-----END CERTIFICATE-----
|
@ -1,5 +0,0 @@
|
||||
-----BEGIN EC PRIVATE KEY-----
|
||||
MHcCAQEEIDwz5wb9hKt0oBQLfNfh4udQdbomFlQwANjEbLFlAWoLoAoGCCqGSM49
|
||||
AwEHoUQDQgAEAGMbkzP69NGpUrAh27LkNTslX9GoBiFxruUnQy+bTupoPMR8Imsn
|
||||
01/CgfoNY7mcq8QbUaupSOhkZ4BkpXqLSQ==
|
||||
-----END EC PRIVATE KEY-----
|
@ -1,11 +0,0 @@
|
||||
-----BEGIN CERTIFICATE-----
|
||||
MIIBpDCCAUqgAwIBAgIRANtNnPgy0RsYy8s8jEXTF70wCgYIKoZIzj0EAwIwMDEu
|
||||
MCwGA1UEAxMlQ2FkZHkgTG9jYWwgQXV0aG9yaXR5IC0gMjAyNSBFQ0MgUm9vdDAe
|
||||
Fw0yNTAzMjYxMjQyMzhaFw0zNTAyMDIxMjQyMzhaMDAxLjAsBgNVBAMTJUNhZGR5
|
||||
IExvY2FsIEF1dGhvcml0eSAtIDIwMjUgRUNDIFJvb3QwWTATBgcqhkjOPQIBBggq
|
||||
hkjOPQMBBwNCAARwisVH8Fpc6IyEsTJ52Ie+G57YAaG946BWcg12RVz+0K2PAk8k
|
||||
S2zQ7F0Q9ACgmIi714mTDwRYqPI98YgUSH3vo0UwQzAOBgNVHQ8BAf8EBAMCAQYw
|
||||
EgYDVR0TAQH/BAgwBgEB/wIBATAdBgNVHQ4EFgQUI9E6k8/ovpoJ4liKK89SzBSn
|
||||
lzwwCgYIKoZIzj0EAwIDSAAwRQIhAPNALa1ZYm+zv0M+lgka9i/lEtv1nXECXkB3
|
||||
LDSxq3uOAiBLTXBuZZEGmv1eIOSUCFUdAqf+T2xTK7tWorwSyzh/EQ==
|
||||
-----END CERTIFICATE-----
|
@ -1,5 +0,0 @@
|
||||
-----BEGIN EC PRIVATE KEY-----
|
||||
MHcCAQEEIEFRxdeKjH1vPMMq+p5SBmN+5OFBuWwHyDXvvmEKOIatoAoGCCqGSM49
|
||||
AwEHoUQDQgAEcIrFR/BaXOiMhLEyediHvhue2AGhveOgVnINdkVc/tCtjwJPJEts
|
||||
0OxdEPQAoJiIu9eJkw8EWKjyPfGIFEh97w==
|
||||
-----END EC PRIVATE KEY-----
|
@ -1,19 +0,0 @@
|
||||
services:
|
||||
caddy:
|
||||
image: caddy:2.8
|
||||
container_name: caddy
|
||||
restart: unless-stopped
|
||||
ports:
|
||||
- 80:80
|
||||
- 443:443
|
||||
volumes:
|
||||
- ./caddy/data:/data
|
||||
- ./caddy/config:/config
|
||||
- ./caddy/Caddyfile:/etc/caddy/Caddyfile:ro
|
||||
myp-rp:
|
||||
image: myp-rp:latest
|
||||
container_name: myp-rp
|
||||
env_file: "/srv/myp-env/github.env"
|
||||
volumes:
|
||||
- /srv/MYP-DB:/usr/src/app/db
|
||||
restart: unless-stopped
|
@ -1,36 +0,0 @@
|
||||
#!/bin/bash
|
||||
|
||||
# Directory containing the Docker images
|
||||
IMAGE_DIR="docker/images"
|
||||
|
||||
# Load all Docker images from the tar.xz files in the IMAGE_DIR
|
||||
echo "Loading Docker images from $IMAGE_DIR..."
|
||||
|
||||
for image_file in "$IMAGE_DIR"/*.tar.xz; do
|
||||
if [ -f "$image_file" ]; then
|
||||
echo "Loading Docker image from $image_file..."
|
||||
docker load -i "$image_file"
|
||||
|
||||
# Check if the image loading was successful
|
||||
if [ $? -ne 0 ]; then
|
||||
echo "Error occurred while loading Docker image from $image_file"
|
||||
exit 1
|
||||
fi
|
||||
else
|
||||
echo "No Docker image tar.xz files found in $IMAGE_DIR."
|
||||
fi
|
||||
done
|
||||
|
||||
# Execute docker compose
|
||||
echo "Running docker compose..."
|
||||
docker compose -f "docker/compose.yml" up -d
|
||||
|
||||
# Check if the operation was successful
|
||||
if [ $? -eq 0 ]; then
|
||||
echo "Docker compose executed successfully"
|
||||
else
|
||||
echo "Error occurred while executing docker compose"
|
||||
exit 1
|
||||
fi
|
||||
|
||||
echo "Deployment completed successfully"
|
@ -1,2 +0,0 @@
|
||||
caddy_2.8.tar.xz filter=lfs diff=lfs merge=lfs -text
|
||||
myp-rp_latest.tar.xz filter=lfs diff=lfs merge=lfs -text
|
BIN
packages/reservation-platform/docker/images/caddy_2.8.tar.xz
(Stored with Git LFS)
BIN
packages/reservation-platform/docker/images/caddy_2.8.tar.xz
(Stored with Git LFS)
Binary file not shown.
BIN
packages/reservation-platform/docker/images/myp-rp_latest.tar.xz
(Stored with Git LFS)
BIN
packages/reservation-platform/docker/images/myp-rp_latest.tar.xz
(Stored with Git LFS)
Binary file not shown.
@ -1,68 +0,0 @@
|
||||
#!/bin/bash
|
||||
|
||||
# Get image name as argument
|
||||
IMAGE_NAME=$1
|
||||
PLATFORM="linux/arm64"
|
||||
|
||||
# Define paths
|
||||
IMAGE_DIR="docker/images"
|
||||
IMAGE_FILE="${IMAGE_DIR}/${IMAGE_NAME//[:\/]/_}.tar"
|
||||
COMPRESSED_FILE="${IMAGE_FILE}.xz"
|
||||
|
||||
# Function to pull the image
|
||||
pull_image() {
|
||||
local image=$1
|
||||
if [[ $image == arm64v8/* ]]; then
|
||||
echo "Pulling image $image without platform specification..."
|
||||
docker pull $image
|
||||
else
|
||||
echo "Pulling image $image for platform $PLATFORM..."
|
||||
docker pull --platform $PLATFORM $image
|
||||
fi
|
||||
return $?
|
||||
}
|
||||
|
||||
# Pull the image if it is not available locally
|
||||
if ! docker image inspect ${IMAGE_NAME} &>/dev/null; then
|
||||
if pull_image ${IMAGE_NAME}; then
|
||||
echo "Image $IMAGE_NAME pulled successfully."
|
||||
else
|
||||
echo "Error occurred while pulling $IMAGE_NAME for platform $PLATFORM"
|
||||
echo "Trying to pull $IMAGE_NAME without platform specification..."
|
||||
|
||||
# Attempt to pull again without platform
|
||||
if pull_image ${IMAGE_NAME}; then
|
||||
echo "Image $IMAGE_NAME pulled successfully without platform."
|
||||
else
|
||||
echo "Error occurred while pulling $IMAGE_NAME without platform."
|
||||
echo "Trying to pull arm64v8/${IMAGE_NAME} instead..."
|
||||
|
||||
# Construct new image name
|
||||
NEW_IMAGE_NAME="arm64v8/${IMAGE_NAME}"
|
||||
if pull_image ${NEW_IMAGE_NAME}; then
|
||||
echo "Image $NEW_IMAGE_NAME pulled successfully."
|
||||
IMAGE_NAME=${NEW_IMAGE_NAME} # Update IMAGE_NAME to use the new one
|
||||
else
|
||||
echo "Error occurred while pulling $NEW_IMAGE_NAME"
|
||||
exit 1
|
||||
fi
|
||||
fi
|
||||
fi
|
||||
else
|
||||
echo "Image $IMAGE_NAME found locally. Skipping pull."
|
||||
fi
|
||||
|
||||
# Save the Docker image
|
||||
echo "Saving $IMAGE_NAME Docker image..."
|
||||
docker save ${IMAGE_NAME} > $IMAGE_FILE
|
||||
|
||||
# Compress the Docker image (overwriting if file exists)
|
||||
echo "Compressing $IMAGE_FILE..."
|
||||
xz -z --force $IMAGE_FILE
|
||||
|
||||
if [ $? -eq 0 ]; then
|
||||
echo "$IMAGE_NAME Docker image saved and compressed successfully as $COMPRESSED_FILE"
|
||||
else
|
||||
echo "Error occurred while compressing $IMAGE_NAME Docker image"
|
||||
exit 1
|
||||
fi
|
@ -1,17 +0,0 @@
|
||||
version: '3.8'
|
||||
|
||||
services:
|
||||
# Frontend for testing - using external backend
|
||||
frontend-test:
|
||||
build:
|
||||
context: ..
|
||||
dockerfile: Dockerfile
|
||||
container_name: myp-frontend-test
|
||||
environment:
|
||||
- NODE_ENV=development
|
||||
- AUTH_TRUST_HOST=true
|
||||
- AUTH_SECRET=test-secret-key-for-testing-only-do-not-use-in-production
|
||||
- NEXT_PUBLIC_BACKEND_URL=http://192.168.0.105:5000
|
||||
ports:
|
||||
- "127.0.0.1:3000:3000"
|
||||
network_mode: "host"
|
@ -1,9 +0,0 @@
|
||||
[0;33mStarting MYP integration test environment...[0m
|
||||
Test directory: /home/user/Projektarbeit-MYP/packages/reservation-platform/docker
|
||||
Parent directory: /home/user/Projektarbeit-MYP/packages/reservation-platform
|
||||
Log file: /home/user/Projektarbeit-MYP/packages/reservation-platform/docker/test-integration.log
|
||||
[0;33mCleaning up any existing test environment...[0m
|
||||
[0;33mStarting test environment with docker-compose...[0m
|
||||
unable to prepare context: path "/home/user/Projektarbeit-MYP/packages/backend" not found
|
||||
[0;31mFailed to start test environment.[0m
|
||||
Check the log file for details: /home/user/Projektarbeit-MYP/packages/reservation-platform/docker/test-integration.log
|
@ -1,161 +0,0 @@
|
||||
#!/bin/bash
|
||||
|
||||
# Test integration script - validates if the frontend and backend work together
|
||||
# Specifically designed to test if the production environment setup will work
|
||||
|
||||
# Get the directory containing this script
|
||||
SCRIPT_DIR="$( cd "$( dirname "${BASH_SOURCE[0]}" )" && pwd )"
|
||||
PARENT_DIR="$(dirname "$SCRIPT_DIR")"
|
||||
TEST_LOG="$SCRIPT_DIR/test-integration.log"
|
||||
|
||||
# Colors for output
|
||||
GREEN='\033[0;32m'
|
||||
YELLOW='\033[0;33m'
|
||||
RED='\033[0;31m'
|
||||
NC='\033[0m' # No Color
|
||||
|
||||
# Create or clear log file
|
||||
> "$TEST_LOG"
|
||||
|
||||
echo -e "${YELLOW}Starting MYP integration test environment...${NC}" | tee -a "$TEST_LOG"
|
||||
echo "Test directory: $SCRIPT_DIR" | tee -a "$TEST_LOG"
|
||||
echo "Parent directory: $PARENT_DIR" | tee -a "$TEST_LOG"
|
||||
echo "Log file: $TEST_LOG" | tee -a "$TEST_LOG"
|
||||
|
||||
# Function to run docker compose (handles both docker-compose and docker compose syntax)
|
||||
run_docker_compose() {
|
||||
if command -v docker-compose &> /dev/null; then
|
||||
docker-compose "$@"
|
||||
elif command -v docker &> /dev/null && docker compose version &> /dev/null; then
|
||||
docker compose "$@"
|
||||
else
|
||||
echo -e "${RED}Error: Neither docker-compose nor docker compose is available${NC}" | tee -a "$TEST_LOG"
|
||||
exit 1
|
||||
fi
|
||||
}
|
||||
|
||||
# Stop any existing test environment (cleanup)
|
||||
echo -e "${YELLOW}Cleaning up any existing test environment...${NC}" | tee -a "$TEST_LOG"
|
||||
run_docker_compose -f "$SCRIPT_DIR/test-env.yml" down >> "$TEST_LOG" 2>&1
|
||||
|
||||
# Start the test environment
|
||||
echo -e "${YELLOW}Starting test environment with docker-compose...${NC}" | tee -a "$TEST_LOG"
|
||||
run_docker_compose -f "$SCRIPT_DIR/test-env.yml" up -d >> "$TEST_LOG" 2>&1
|
||||
|
||||
if [ $? -ne 0 ]; then
|
||||
echo -e "${RED}Failed to start test environment.${NC}" | tee -a "$TEST_LOG"
|
||||
echo "Check the log file for details: $TEST_LOG" | tee -a "$TEST_LOG"
|
||||
exit 1
|
||||
fi
|
||||
|
||||
# Check if external backend is available
|
||||
echo -e "${YELLOW}Checking if external backend is available...${NC}" | tee -a "$TEST_LOG"
|
||||
max_attempts=10
|
||||
attempt=1
|
||||
backend_ready=false
|
||||
|
||||
while [ $attempt -le $max_attempts ] && [ "$backend_ready" = "false" ]; do
|
||||
echo "Checking backend readiness (attempt $attempt/$max_attempts)..." | tee -a "$TEST_LOG"
|
||||
|
||||
if curl -s http://192.168.0.105:5000/api/health &> /dev/null; then
|
||||
backend_ready=true
|
||||
echo -e "${GREEN}External backend is available!${NC}" | tee -a "$TEST_LOG"
|
||||
else
|
||||
echo "External backend not available yet, waiting..." | tee -a "$TEST_LOG"
|
||||
sleep 2
|
||||
attempt=$((attempt+1))
|
||||
fi
|
||||
done
|
||||
|
||||
if [ "$backend_ready" = "false" ]; then
|
||||
echo -e "${RED}External backend at 192.168.0.105:5000 is not available after $max_attempts attempts${NC}" | tee -a "$TEST_LOG"
|
||||
echo -e "${RED}Please make sure the backend is running on the separate Raspberry Pi${NC}" | tee -a "$TEST_LOG"
|
||||
|
||||
# Cleanup
|
||||
run_docker_compose -f "$SCRIPT_DIR/test-env.yml" down >> "$TEST_LOG" 2>&1
|
||||
exit 1
|
||||
fi
|
||||
|
||||
# Wait for frontend to be ready
|
||||
echo -e "${YELLOW}Waiting for frontend to be ready...${NC}" | tee -a "$TEST_LOG"
|
||||
max_attempts=30
|
||||
attempt=1
|
||||
frontend_ready=false
|
||||
|
||||
while [ $attempt -le $max_attempts ] && [ "$frontend_ready" = "false" ]; do
|
||||
echo "Checking frontend readiness (attempt $attempt/$max_attempts)..." | tee -a "$TEST_LOG"
|
||||
|
||||
if curl -s http://127.0.0.1:3000 &> /dev/null; then
|
||||
frontend_ready=true
|
||||
echo -e "${GREEN}Frontend is ready!${NC}" | tee -a "$TEST_LOG"
|
||||
else
|
||||
echo "Frontend not ready yet, waiting..." | tee -a "$TEST_LOG"
|
||||
sleep 2
|
||||
attempt=$((attempt+1))
|
||||
fi
|
||||
done
|
||||
|
||||
if [ "$frontend_ready" = "false" ]; then
|
||||
echo -e "${RED}Frontend failed to start properly after $max_attempts attempts${NC}" | tee -a "$TEST_LOG"
|
||||
echo "Logs from frontend container:" | tee -a "$TEST_LOG"
|
||||
run_docker_compose -f "$SCRIPT_DIR/test-env.yml" logs frontend-test >> "$TEST_LOG" 2>&1
|
||||
|
||||
# Cleanup
|
||||
run_docker_compose -f "$SCRIPT_DIR/test-env.yml" down >> "$TEST_LOG" 2>&1
|
||||
exit 1
|
||||
fi
|
||||
|
||||
# Perform basic integration tests
|
||||
echo -e "${YELLOW}Performing basic integration tests...${NC}" | tee -a "$TEST_LOG"
|
||||
|
||||
# Test 1: Frontend can fetch API data (printers endpoint)
|
||||
echo "Test 1: Frontend can fetch data from backend API..." | tee -a "$TEST_LOG"
|
||||
frontend_container_id=$(docker ps -qf "name=myp-frontend-test")
|
||||
|
||||
if [ -z "$frontend_container_id" ]; then
|
||||
echo -e "${RED}Failed to find frontend container${NC}" | tee -a "$TEST_LOG"
|
||||
run_docker_compose -f "$SCRIPT_DIR/test-env.yml" down >> "$TEST_LOG" 2>&1
|
||||
exit 1
|
||||
fi
|
||||
|
||||
# Run a simple test inside the frontend container to check API connectivity
|
||||
api_test_result=$(docker exec $frontend_container_id curl -s http://192.168.0.105:5000/api/health)
|
||||
if [[ "$api_test_result" == *"healthy"* ]]; then
|
||||
echo -e "${GREEN}Test 1 PASSED: Frontend can connect to backend API${NC}" | tee -a "$TEST_LOG"
|
||||
else
|
||||
echo -e "${RED}Test 1 FAILED: Frontend cannot connect to backend API${NC}" | tee -a "$TEST_LOG"
|
||||
echo "API response: $api_test_result" | tee -a "$TEST_LOG"
|
||||
# Don't exit, continue with other tests
|
||||
fi
|
||||
|
||||
# Test 2: Frontend serves HTML content
|
||||
echo "Test 2: Frontend serves valid HTML content..." | tee -a "$TEST_LOG"
|
||||
frontend_html=$(curl -s http://127.0.0.1:3000)
|
||||
if [[ "$frontend_html" == *"<!DOCTYPE html>"* ]]; then
|
||||
echo -e "${GREEN}Test 2 PASSED: Frontend serves valid HTML${NC}" | tee -a "$TEST_LOG"
|
||||
else
|
||||
echo -e "${RED}Test 2 FAILED: Frontend does not serve valid HTML${NC}" | tee -a "$TEST_LOG"
|
||||
# Don't exit, continue with other tests
|
||||
fi
|
||||
|
||||
# All tests completed
|
||||
echo -e "${GREEN}Integration tests completed${NC}" | tee -a "$TEST_LOG"
|
||||
|
||||
# Ask if the environment should be kept running or shutdown
|
||||
echo -e "${YELLOW}Test environment is running at:${NC}" | tee -a "$TEST_LOG"
|
||||
echo "Frontend: http://127.0.0.1:3000" | tee -a "$TEST_LOG"
|
||||
echo "Backend: http://192.168.0.105:5000 (external Raspberry Pi)" | tee -a "$TEST_LOG"
|
||||
echo "" | tee -a "$TEST_LOG"
|
||||
|
||||
read -p "Do you want to keep the test environment running? (y/n): " keep_running
|
||||
|
||||
if [[ "$keep_running" != "y" && "$keep_running" != "Y" ]]; then
|
||||
echo -e "${YELLOW}Shutting down test environment...${NC}" | tee -a "$TEST_LOG"
|
||||
run_docker_compose -f "$SCRIPT_DIR/test-env.yml" down >> "$TEST_LOG" 2>&1
|
||||
echo -e "${GREEN}Test environment has been shut down${NC}" | tee -a "$TEST_LOG"
|
||||
else
|
||||
echo -e "${GREEN}Test environment is still running${NC}" | tee -a "$TEST_LOG"
|
||||
echo "To stop it later, run: docker-compose -f $SCRIPT_DIR/test-env.yml down" | tee -a "$TEST_LOG"
|
||||
fi
|
||||
|
||||
echo -e "${GREEN}Integration testing completed. See log for details: $TEST_LOG${NC}"
|
@ -1,116 +0,0 @@
|
||||
# **Detaillierte Dokumentation des Admin-Dashboards**
|
||||
|
||||
In diesem Abschnitt werde ich die Funktionen und Nutzung des Admin-Dashboards genauer beschreiben, einschließlich der verschiedenen Module, Diagramme und deren Zweck.
|
||||
|
||||
---
|
||||
|
||||
## **1. Überblick über das Admin-Dashboard**
|
||||
|
||||
Das Admin-Dashboard ist der zentrale Verwaltungsbereich für Administratoren. Es bietet Funktionen wie die Verwaltung von Druckern, Benutzern und Druckaufträgen sowie detaillierte Statistiken und Analysen.
|
||||
|
||||
### **1.1. Navigation**
|
||||
Das Dashboard enthält ein Sidebar-Menü mit den folgenden Hauptbereichen:
|
||||
1. **Dashboard:** Übersicht der wichtigsten Statistiken.
|
||||
2. **Benutzer:** Verwaltung von Benutzerkonten.
|
||||
3. **Drucker:** Hinzufügen, Bearbeiten und Verwalten von Druckern.
|
||||
4. **Druckaufträge:** Einsicht in alle Druckaufträge und deren Status.
|
||||
5. **Einstellungen:** Konfiguration der Anwendung.
|
||||
6. **Über MYP:** Informationen über das Projekt und den Entwickler.
|
||||
|
||||
Die Sidebar wird in der Datei `src/app/admin/admin-sidebar.tsx` definiert und dynamisch basierend auf der aktuellen Seite hervorgehoben.
|
||||
|
||||
---
|
||||
|
||||
## **2. Funktionen des Admin-Dashboards**
|
||||
|
||||
### **2.1. Benutzerverwaltung**
|
||||
- **Datei:** `src/app/admin/users/page.tsx`
|
||||
- **Beschreibung:** Ermöglicht das Anzeigen, Bearbeiten und Löschen von Benutzerkonten.
|
||||
- **Funktionen:**
|
||||
- Anzeige einer Liste aller registrierten Benutzer.
|
||||
- Bearbeiten von Benutzerrollen (z. B. „admin“ oder „user“).
|
||||
- Deaktivieren oder Löschen von Benutzerkonten.
|
||||
|
||||
---
|
||||
|
||||
### **2.2. Druckerverwaltung**
|
||||
- **Datei:** `src/app/admin/printers/page.tsx`
|
||||
- **Beschreibung:** Verwaltung der Drucker, einschließlich Hinzufügen, Bearbeiten und Deaktivieren.
|
||||
- **Funktionen:**
|
||||
- Statusanzeige der Drucker (aktiv/inaktiv).
|
||||
- Hinzufügen neuer Drucker mit Namen und Beschreibung.
|
||||
- Löschen oder Bearbeiten bestehender Drucker.
|
||||
|
||||
---
|
||||
|
||||
### **2.3. Druckaufträge**
|
||||
- **Datei:** `src/app/admin/jobs/page.tsx`
|
||||
- **Beschreibung:** Übersicht aller Druckaufträge, einschließlich Details wie Startzeit, Dauer und Status.
|
||||
- **Funktionen:**
|
||||
- Filtern nach Benutzern, Druckern oder Status (abgeschlossen, abgebrochen).
|
||||
- Anzeigen von Abbruchgründen und Fehlermeldungen.
|
||||
- Sortieren nach Zeit oder Benutzer.
|
||||
|
||||
---
|
||||
|
||||
### **2.4. Einstellungen**
|
||||
- **Datei:** `src/app/admin/settings/page.tsx`
|
||||
- **Beschreibung:** Konfigurationsseite für die Anwendung.
|
||||
- **Funktionen:**
|
||||
- Ändern von globalen Einstellungen wie Standardzeiten oder Fehlerrichtlinien.
|
||||
- Download von Daten (z. B. Export der Druckhistorie).
|
||||
|
||||
---
|
||||
|
||||
## **3. Statistiken und Diagramme**
|
||||
|
||||
Das Admin-Dashboard enthält interaktive Diagramme, die wichtige Statistiken visualisieren. Hier einige der zentralen Diagramme:
|
||||
|
||||
### **3.1. Abbruchgründe**
|
||||
- **Datei:** `src/app/admin/charts/printer-error-chart.tsx`
|
||||
- **Beschreibung:** Zeigt die Häufigkeit der Abbruchgründe für Druckaufträge in einem Balkendiagramm.
|
||||
- **Nutzen:** Identifiziert häufige Probleme wie Materialmangel oder Düsenverstopfungen.
|
||||
|
||||
---
|
||||
|
||||
### **3.2. Fehlerraten**
|
||||
- **Datei:** `src/app/admin/charts/printer-error-rate.tsx`
|
||||
- **Beschreibung:** Zeigt die prozentuale Fehlerrate für jeden Drucker in einem Balkendiagramm.
|
||||
- **Nutzen:** Ermöglicht die Überwachung und Identifizierung von problematischen Druckern.
|
||||
|
||||
---
|
||||
|
||||
### **3.3. Druckvolumen**
|
||||
- **Datei:** `src/app/admin/charts/printer-volume.tsx`
|
||||
- **Beschreibung:** Zeigt das Druckvolumen für heute, diese Woche und diesen Monat.
|
||||
- **Nutzen:** Vergleich des Druckeroutputs über verschiedene Zeiträume.
|
||||
|
||||
---
|
||||
|
||||
### **3.4. Prognostizierte Nutzung**
|
||||
- **Datei:** `src/app/admin/charts/printer-forecast.tsx`
|
||||
- **Beschreibung:** Ein Bereichsdiagramm zeigt die erwartete Druckernutzung pro Wochentag.
|
||||
- **Nutzen:** Hilft bei der Planung von Wartungsarbeiten oder Ressourcenzuweisungen.
|
||||
|
||||
---
|
||||
|
||||
### **3.5. Druckerauslastung**
|
||||
- **Datei:** `src/app/admin/charts/printer-utilization.tsx`
|
||||
- **Beschreibung:** Zeigt die aktuelle Nutzung eines Druckers in Prozent in einem Kreisdiagramm.
|
||||
- **Nutzen:** Überwacht die Auslastung und identifiziert ungenutzte Ressourcen.
|
||||
|
||||
---
|
||||
|
||||
## **4. Rollenbasierte Zugriffssteuerung**
|
||||
|
||||
Das Admin-Dashboard ist nur für Benutzer mit der Rolle „admin“ zugänglich. Nicht berechtigte Benutzer werden auf die Startseite umgeleitet. Die Zugriffssteuerung erfolgt durch folgende Logik:
|
||||
- **Datei:** `src/app/admin/layout.tsx`
|
||||
- **Funktion:** `validateRequest` prüft die Rolle des aktuellen Benutzers.
|
||||
- **Umleitung:** Falls die Rolle unzureichend ist, wird der Benutzer automatisch umgeleitet:
|
||||
```typescript
|
||||
if (guard(user, IS_NOT, UserRole.ADMIN)) {
|
||||
redirect("/");
|
||||
}
|
||||
```
|
||||
|
||||
Nächster Schritt: [=> API-Endpunkte und deren Nutzung](./API.md)
|
@ -1,79 +0,0 @@
|
||||
# **Technische Architektur und Codeaufbau**
|
||||
|
||||
In diesem Abschnitt erläutere ich die Architektur und Struktur des MYP-Projekts sowie die Funktionalitäten der zentralen Komponenten.
|
||||
|
||||
---
|
||||
|
||||
## **1. Technische Architektur**
|
||||
|
||||
### **1.1. Architekturübersicht**
|
||||
MYP basiert auf einer modernen Webanwendungsarchitektur:
|
||||
- **Frontend:** Entwickelt mit React und Next.js. Stellt die Benutzeroberfläche bereit.
|
||||
- **Backend:** Nutzt Node.js und Drizzle ORM für die Datenbankinteraktion und Geschäftslogik.
|
||||
- **Datenbank:** SQLite zur Speicherung von Nutzerdaten, Druckaufträgen und Druckerkonfigurationen.
|
||||
- **Containerisierung:** Docker wird verwendet, um die Anwendung in isolierten Containern bereitzustellen.
|
||||
- **Webserver:** Caddy dient als Reverse Proxy mit HTTPS-Unterstützung.
|
||||
|
||||
### **1.2. Modulübersicht**
|
||||
- **Datenfluss:** Die Anwendung ist stark datengetrieben. API-Routen werden genutzt, um Daten zwischen Frontend und Backend auszutauschen.
|
||||
- **Rollenbasierter Zugriff:** Über ein Berechtigungssystem können Administratoren und Benutzer unterschiedliche Funktionen nutzen.
|
||||
|
||||
---
|
||||
|
||||
## **2. Codeaufbau**
|
||||
|
||||
### **2.1. Ordnerstruktur**
|
||||
Die Datei `repomix-output.txt` zeigt eine strukturierte Übersicht des Projekts. Nachfolgend einige wichtige Verzeichnisse:
|
||||
|
||||
| **Verzeichnis** | **Inhalt** |
|
||||
|--------------------------|---------------------------------------------------------------------------|
|
||||
| `src/app` | Next.js-Seiten und Komponenten für Benutzer und Admins. |
|
||||
| `src/components` | Wiederverwendbare UI-Komponenten wie Karten, Diagramme, Buttons etc. |
|
||||
| `src/server` | Backend-Logik, Authentifizierung und Datenbankinteraktionen. |
|
||||
| `src/utils` | Hilfsfunktionen für Analysen, Validierungen und Datenbankzugriffe. |
|
||||
| `drizzle` | Datenbank-Migrationsdateien und Metadaten. |
|
||||
| `docker` | Docker-Konfigurations- und Bereitstellungsskripte. |
|
||||
|
||||
---
|
||||
|
||||
### **2.2. Hauptdateien**
|
||||
#### **Frontend**
|
||||
- **`src/app/page.tsx`:** Startseite der Anwendung.
|
||||
- **`src/app/admin/`:** Admin-spezifische Seiten, z. B. Druckerverwaltung oder Fehlerstatistiken.
|
||||
- **`src/components/ui/`:** UI-Komponenten wie Dialoge, Formulare und Tabellen.
|
||||
|
||||
#### **Backend**
|
||||
- **`src/server/auth/`:** Authentifizierung und Benutzerrollenmanagement.
|
||||
- **`src/server/actions/`:** Funktionen zur Interaktion mit Druckaufträgen und Druckern.
|
||||
- **`src/utils/`:** Analyse und Verarbeitung von Druckdaten (z. B. Fehlerquoten und Auslastung).
|
||||
|
||||
#### **Datenbank**
|
||||
- **`drizzle/0000_overjoyed_strong_guy.sql`:** SQLite-Datenbankschema mit Tabellen für Drucker, Benutzer und Druckaufträge.
|
||||
- **`drizzle.meta/`:** Metadaten zur Datenbankmigration.
|
||||
|
||||
---
|
||||
|
||||
### **2.3. Datenbankschema**
|
||||
Das Schema enthält vier Haupttabellen:
|
||||
1. **`user`:** Speichert Benutzerinformationen, einschließlich Rollen und E-Mail-Adressen.
|
||||
2. **`printer`:** Beschreibt die Drucker, ihren Status und ihre Eigenschaften.
|
||||
3. **`printJob`:** Zeichnet Druckaufträge auf, einschließlich Startzeit, Dauer und Abbruchgrund.
|
||||
4. **`session`:** Verwaltert Benutzer-Sitzungen und Ablaufzeiten.
|
||||
|
||||
---
|
||||
|
||||
## **3. Wichtige Funktionen**
|
||||
|
||||
### **3.1. Authentifizierung**
|
||||
Das System nutzt OAuth zur Anmeldung. Benutzerrollen werden in der Tabelle `user` gespeichert und im Backend überprüft.
|
||||
|
||||
### **3.2. Statistiken**
|
||||
- **Fehlerrate:** Berechnet die Häufigkeit von Abbrüchen für jeden Drucker.
|
||||
- **Auslastung:** Prozentuale Nutzung der Drucker, basierend auf geplanten und abgeschlossenen Druckaufträgen.
|
||||
- **Prognosen:** Verwenden historische Daten, um zukünftige Drucknutzungen vorherzusagen.
|
||||
|
||||
### **3.3. API-Endpunkte**
|
||||
- **`src/app/api/printers/`:** Zugriff auf Druckerkonfigurationsdaten.
|
||||
- **`src/app/api/job/[jobId]/`:** Verwaltung einzelner Druckaufträge.
|
||||
|
||||
Nächster Schritt: [=> Datenbank und Analytik-Funktionen](./Datenbank.md)
|
@ -1,150 +0,0 @@
|
||||
# **Bereitstellungsdetails und Best Practices**
|
||||
|
||||
In diesem Abschnitt erläutere ich, wie das MYP-Projekt auf einem Server bereitgestellt wird, sowie empfohlene Praktiken zur Verwaltung und Optimierung des Systems.
|
||||
|
||||
---
|
||||
|
||||
## **1. Bereitstellungsschritte**
|
||||
|
||||
### **1.1. Voraussetzungen**
|
||||
- **Server:** Raspberry Pi mit installiertem Raspbian Lite.
|
||||
- **Docker:** Docker und Docker Compose müssen vorab installiert sein.
|
||||
- **Netzwerk:** Der Server muss über eine statische IP-Adresse oder einen DNS-Namen erreichbar sein.
|
||||
|
||||
### **1.2. Vorbereitung**
|
||||
#### **1.2.1. Docker-Images erstellen und speichern**
|
||||
Führen Sie die folgenden Schritte auf dem Entwicklungssystem aus:
|
||||
1. **Images erstellen:**
|
||||
```bash
|
||||
bash docker/build.sh
|
||||
```
|
||||
2. **Images exportieren und komprimieren:**
|
||||
```bash
|
||||
bash docker/save.sh <image-name>
|
||||
```
|
||||
Dies speichert die Docker-Images im Verzeichnis `docker/images/`.
|
||||
|
||||
#### **1.2.2. Übertragung auf den Server**
|
||||
Kopieren Sie die erzeugten `.tar.xz`-Dateien auf den Raspberry Pi:
|
||||
```bash
|
||||
scp docker/images/*.tar.xz <username>@<server-ip>:/path/to/destination/
|
||||
```
|
||||
|
||||
---
|
||||
|
||||
### **1.3. Images auf dem Server laden**
|
||||
Loggen Sie sich auf dem Server ein und laden Sie die Docker-Images:
|
||||
```bash
|
||||
docker load -i /path/to/destination/<image-name>.tar.xz
|
||||
```
|
||||
|
||||
---
|
||||
|
||||
### **1.4. Starten der Anwendung**
|
||||
Führen Sie das Bereitstellungsskript aus:
|
||||
```bash
|
||||
bash docker/deploy.sh
|
||||
```
|
||||
Dieses Skript:
|
||||
- Startet die Docker-Container mithilfe von `docker compose`.
|
||||
- Verbindet den Reverse Proxy (Caddy) mit der Anwendung.
|
||||
|
||||
Die Anwendung sollte unter `http://<server-ip>` oder der konfigurierten Domain erreichbar sein.
|
||||
|
||||
---
|
||||
|
||||
## **2. Best Practices**
|
||||
|
||||
### **2.1. Sicherheit**
|
||||
1. **Umgebungsvariablen schützen:**
|
||||
- Stellen Sie sicher, dass die Datei `.env` nicht versehentlich in ein öffentliches Repository hochgeladen wird.
|
||||
- Verwenden Sie geeignete Zugriffsrechte:
|
||||
```bash
|
||||
chmod 600 .env
|
||||
```
|
||||
2. **HTTPS aktivieren:**
|
||||
- Der Caddy-Webserver unterstützt automatisch HTTPS. Stellen Sie sicher, dass eine gültige Domain konfiguriert ist.
|
||||
|
||||
3. **Zugriffsrechte beschränken:**
|
||||
- Verwenden Sie Benutzerrollen („admin“, „guest“), um den Zugriff auf kritische Funktionen zu steuern.
|
||||
|
||||
---
|
||||
|
||||
### **2.2. Performance**
|
||||
1. **Docker-Container optimieren:**
|
||||
- Reduzieren Sie die Größe der Docker-Images, indem Sie unnötige Dateien in `.dockerignore` ausschließen.
|
||||
|
||||
2. **Datenbankwartung:**
|
||||
- Führen Sie regelmäßige Backups der SQLite-Datenbank durch:
|
||||
```bash
|
||||
cp db/sqlite.db /path/to/backup/location/
|
||||
```
|
||||
- Optimieren Sie die Datenbank regelmäßig:
|
||||
```sql
|
||||
VACUUM;
|
||||
```
|
||||
|
||||
3. **Skalierung:**
|
||||
- Bei hoher Last kann die Anwendung mit Kubernetes oder einer Cloud-Lösung (z. B. AWS oder Azure) skaliert werden.
|
||||
|
||||
---
|
||||
|
||||
### **2.3. Fehlerbehebung**
|
||||
1. **Logs überprüfen:**
|
||||
- Docker-Logs können wichtige Debug-Informationen liefern:
|
||||
```bash
|
||||
docker logs <container-name>
|
||||
```
|
||||
|
||||
2. **Health Checks:**
|
||||
- Integrieren Sie Health Checks in die Docker Compose-Datei, um sicherzustellen, dass die Dienste korrekt laufen.
|
||||
|
||||
3. **Fehlerhafte Drucker deaktivieren:**
|
||||
- Deaktivieren Sie Drucker mit einer hohen Fehlerrate über das Admin-Dashboard, um die Benutzererfahrung zu verbessern.
|
||||
|
||||
---
|
||||
|
||||
### **2.4. Updates**
|
||||
1. **Neue Funktionen hinzufügen:**
|
||||
- Aktualisieren Sie die Anwendung und erstellen Sie neue Docker-Images:
|
||||
```bash
|
||||
git pull origin main
|
||||
bash docker/build.sh
|
||||
```
|
||||
- Stellen Sie die aktualisierten Images bereit:
|
||||
```bash
|
||||
bash docker/deploy.sh
|
||||
```
|
||||
|
||||
2. **Datenbankmigrationen:**
|
||||
- Führen Sie neue Migrationsskripte mit folgendem Befehl aus:
|
||||
```bash
|
||||
pnpm run db:migrate
|
||||
```
|
||||
|
||||
---
|
||||
|
||||
## **3. Backup und Wiederherstellung**
|
||||
|
||||
### **3.1. Backups erstellen**
|
||||
Sichern Sie wichtige Dateien und Datenbanken regelmäßig:
|
||||
- **SQLite-Datenbank:**
|
||||
```bash
|
||||
cp db/sqlite.db /backup/location/sqlite-$(date +%F).db
|
||||
```
|
||||
- **Docker-Images:**
|
||||
```bash
|
||||
docker save myp-rp:latest | gzip > /backup/location/myp-rp-$(date +%F).tar.gz
|
||||
```
|
||||
|
||||
### **3.2. Wiederherstellung**
|
||||
- **Datenbank wiederherstellen:**
|
||||
```bash
|
||||
cp /backup/location/sqlite-<date>.db db/sqlite.db
|
||||
```
|
||||
- **Docker-Images importieren:**
|
||||
```bash
|
||||
docker load < /backup/location/myp-rp-<date>.tar.gz
|
||||
```
|
||||
|
||||
Nächster Schritt: [=> Admin-Dashboard](./Admin-Dashboard.md)
|
@ -1,153 +0,0 @@
|
||||
# **Datenbank und Analytik-Funktionen**
|
||||
|
||||
Dieser Abschnitt konzentriert sich auf die Struktur der Datenbank sowie die Analyse- und Prognosefunktionen, die im Projekt verwendet werden.
|
||||
|
||||
---
|
||||
|
||||
## **1. Datenbankstruktur**
|
||||
|
||||
Das Datenbankschema wurde mit **Drizzle ORM** definiert und basiert auf SQLite. Die wichtigsten Tabellen und ihre Zwecke sind:
|
||||
|
||||
### **1.1. Tabellenübersicht**
|
||||
|
||||
#### **`user`**
|
||||
- Speichert Benutzerinformationen.
|
||||
- Enthält Rollen wie „admin“ oder „guest“ zur Verwaltung von Berechtigungen.
|
||||
|
||||
| **Feld** | **Typ** | **Beschreibung** |
|
||||
|-------------------|------------|-------------------------------------------|
|
||||
| `id` | `text` | Eindeutige ID des Benutzers. |
|
||||
| `github_id` | `integer` | ID des Benutzers aus dem OAuth-Dienst. |
|
||||
| `name` | `text` | Benutzername. |
|
||||
| `displayName` | `text` | Angezeigter Name. |
|
||||
| `email` | `text` | E-Mail-Adresse. |
|
||||
| `role` | `text` | Benutzerrolle, Standardwert: „guest“. |
|
||||
|
||||
---
|
||||
|
||||
#### **`printer`**
|
||||
- Beschreibt verfügbare Drucker und deren Status.
|
||||
|
||||
| **Feld** | **Typ** | **Beschreibung** |
|
||||
|-------------------|------------|-------------------------------------------|
|
||||
| `id` | `text` | Eindeutige Drucker-ID. |
|
||||
| `name` | `text` | Name des Druckers. |
|
||||
| `description` | `text` | Beschreibung oder Spezifikationen. |
|
||||
| `status` | `integer` | Betriebsstatus (0 = inaktiv, 1 = aktiv). |
|
||||
|
||||
---
|
||||
|
||||
#### **`printJob`**
|
||||
- Speichert Informationen zu Druckaufträgen.
|
||||
|
||||
| **Feld** | **Typ** | **Beschreibung** |
|
||||
|-----------------------|---------------|-------------------------------------------------------|
|
||||
| `id` | `text` | Eindeutige Auftrags-ID. |
|
||||
| `printerId` | `text` | Verweis auf die ID des Druckers. |
|
||||
| `userId` | `text` | Verweis auf die ID des Benutzers. |
|
||||
| `startAt` | `integer` | Startzeit des Druckauftrags (Unix-Timestamp). |
|
||||
| `durationInMinutes` | `integer` | Dauer des Druckauftrags in Minuten. |
|
||||
| `comments` | `text` | Zusätzliche Kommentare. |
|
||||
| `aborted` | `integer` | 1 = Abgebrochen, 0 = Erfolgreich abgeschlossen. |
|
||||
| `abortReason` | `text` | Grund für den Abbruch (falls zutreffend). |
|
||||
|
||||
---
|
||||
|
||||
#### **`session`**
|
||||
- Verwaltert Benutzer-Sitzungen und Ablaufzeiten.
|
||||
|
||||
| **Feld** | **Typ** | **Beschreibung** |
|
||||
|-------------------|------------|-------------------------------------------|
|
||||
| `id` | `text` | Eindeutige Sitzungs-ID. |
|
||||
| `user_id` | `text` | Verweis auf die ID des Benutzers. |
|
||||
| `expires_at` | `integer` | Zeitpunkt, wann die Sitzung abläuft. |
|
||||
|
||||
---
|
||||
|
||||
### **1.2. Relationen**
|
||||
- `printer` → `printJob`: Druckaufträge sind an spezifische Drucker gebunden.
|
||||
- `user` → `printJob`: Druckaufträge werden Benutzern zugewiesen.
|
||||
- `user` → `session`: Sitzungen verknüpfen Benutzer mit Login-Details.
|
||||
|
||||
---
|
||||
|
||||
## **2. Analytik-Funktionen**
|
||||
|
||||
Das Projekt bietet verschiedene Analytik- und Prognosetools, um die Druckernutzung und Fehler zu überwachen.
|
||||
|
||||
### **2.1. Fehlerratenanalyse**
|
||||
- Funktion: `calculatePrinterErrorRate` (in `src/utils/analytics/error-rate.ts`).
|
||||
- Berechnet die prozentuale Fehlerrate für jeden Drucker basierend auf abgebrochenen Aufträgen.
|
||||
|
||||
Beispielausgabe:
|
||||
```json
|
||||
[
|
||||
{ "name": "Drucker 1", "errorRate": 5.2 },
|
||||
{ "name": "Drucker 2", "errorRate": 3.7 }
|
||||
]
|
||||
```
|
||||
|
||||
---
|
||||
|
||||
### **2.2. Abbruchgründe**
|
||||
- Funktion: `calculateAbortReasonsCount` (in `src/utils/analytics/errors.ts`).
|
||||
- Zählt die Häufigkeit der Abbruchgründe aus der Tabelle `printJob`.
|
||||
|
||||
Beispielausgabe:
|
||||
```json
|
||||
[
|
||||
{ "abortReason": "Materialmangel", "count": 10 },
|
||||
{ "abortReason": "Düsenverstopfung", "count": 7 }
|
||||
]
|
||||
```
|
||||
|
||||
---
|
||||
|
||||
### **2.3. Nutzung und Prognosen**
|
||||
#### Nutzung:
|
||||
- Funktion: `calculatePrinterUtilization` (in `src/utils/analytics/utilization.ts`).
|
||||
- Berechnet die Nutzung der Drucker in Prozent.
|
||||
|
||||
Beispielausgabe:
|
||||
```json
|
||||
{ "printerId": "1", "utilizationPercentage": 85 }
|
||||
```
|
||||
|
||||
#### Prognosen:
|
||||
- Funktion: `forecastPrinterUsage` (in `src/utils/analytics/forecast.ts`).
|
||||
- Nutzt historische Daten, um die erwartete Druckernutzung für kommende Tage/Wochen zu schätzen.
|
||||
|
||||
Beispielausgabe:
|
||||
```json
|
||||
[
|
||||
{ "day": 1, "usageMinutes": 300 },
|
||||
{ "day": 2, "usageMinutes": 200 }
|
||||
]
|
||||
```
|
||||
|
||||
---
|
||||
|
||||
### **2.4. Druckvolumen**
|
||||
- Funktion: `calculatePrintVolumes` (in `src/utils/analytics/volume.ts`).
|
||||
- Vergleicht die Anzahl der abgeschlossenen Druckaufträge für heute, diese Woche und diesen Monat.
|
||||
|
||||
Beispielausgabe:
|
||||
```json
|
||||
{
|
||||
"today": 15,
|
||||
"thisWeek": 90,
|
||||
"thisMonth": 300
|
||||
}
|
||||
```
|
||||
|
||||
---
|
||||
|
||||
## **3. Datenbankinitialisierung**
|
||||
Die Datenbank wird über Skripte in der `package.json` initialisiert:
|
||||
```bash
|
||||
pnpm run db:clean # Datenbank und Migrationsordner löschen
|
||||
pnpm run db:generate # Neues Schema generieren
|
||||
pnpm run db:migrate # Migrationsskripte ausführen
|
||||
```
|
||||
|
||||
Nächster Schritt: [=> Bereitstellungsdetails und Best Practices](./Bereitstellungsdetails.md)
|
@ -1,93 +0,0 @@
|
||||
# **Installation und Einrichtung**
|
||||
|
||||
In diesem Abschnitt wird beschrieben, wie die MYP-Anwendung installiert und eingerichtet wird. Diese Schritte umfassen die Vorbereitung der Umgebung, das Konfigurieren der notwendigen Dienste und die Bereitstellung des Projekts.
|
||||
|
||||
---
|
||||
|
||||
## **Voraussetzungen**
|
||||
### **Hardware und Software**
|
||||
- **Raspberry Pi:** Die Anwendung ist für den Einsatz auf einem Raspberry Pi optimiert, auf dem Raspbian Lite installiert sein sollte.
|
||||
- **Docker:** Docker und Docker Compose müssen installiert sein.
|
||||
- **Netzwerkzugriff:** Der Raspberry Pi muss im Netzwerk erreichbar sein.
|
||||
|
||||
### **Abhängigkeiten**
|
||||
- Node.js (mindestens Version 20)
|
||||
- PNPM (Paketmanager)
|
||||
- SQLite (für lokale Datenbankverwaltung)
|
||||
|
||||
---
|
||||
|
||||
## **Schritte zur Einrichtung**
|
||||
|
||||
### **1. Repository klonen**
|
||||
Klonen Sie das Repository auf Ihr System:
|
||||
```bash
|
||||
git clone <repository-url>
|
||||
cd <repository-ordner>
|
||||
```
|
||||
|
||||
### **2. Konfiguration der Umgebungsvariablen**
|
||||
Passen Sie die Datei `.env.example` an und benennen Sie sie in `.env` um:
|
||||
```bash
|
||||
cp .env.example .env
|
||||
```
|
||||
Erforderliche Variablen:
|
||||
- `OAUTH_CLIENT_ID`: Client-ID für die OAuth-Authentifizierung
|
||||
- `OAUTH_CLIENT_SECRET`: Geheimnis für die OAuth-Authentifizierung
|
||||
|
||||
### **3. Docker-Container erstellen**
|
||||
Führen Sie das Skript `build.sh` aus, um Docker-Images zu erstellen:
|
||||
```bash
|
||||
bash docker/build.sh
|
||||
```
|
||||
Dies erstellt die notwendigen Docker-Images, einschließlich der Anwendung und eines Caddy-Webservers.
|
||||
|
||||
### **4. Docker-Images speichern**
|
||||
Speichern Sie die Images in komprimierter Form, um sie auf anderen Geräten bereitzustellen:
|
||||
```bash
|
||||
bash docker/save.sh <image-name>
|
||||
```
|
||||
|
||||
### **5. Bereitstellung**
|
||||
Kopieren Sie die Docker-Images auf den Zielserver (z. B. Raspberry Pi) und führen Sie `deploy.sh` aus:
|
||||
```bash
|
||||
scp docker/images/*.tar.xz <ziel-server>:/path/to/deployment/
|
||||
bash docker/deploy.sh
|
||||
```
|
||||
Das Skript führt die Docker Compose-Konfiguration aus und startet die Anwendung.
|
||||
|
||||
### **(Optional: 6. Admin-User anlegen)**
|
||||
|
||||
Um einen Admin-User anzulegen, muss zuerst das Container-Image gestartet werden. Anschließend meldet man sich mittels
|
||||
der GitHub-Authentifizierung bei der Anwendung an.
|
||||
|
||||
Der nun in der Datenbank angelegte User hat die Rolle `guest`. Über das CLI muss man nun in die SQLite-Datenbank (die Datenbank sollte außerhalb des Container-Images liegen) wechseln und
|
||||
den User updaten.
|
||||
|
||||
|
||||
#### SQL-Befehl, um den User zu updaten:
|
||||
```bash
|
||||
sqlite3 db.sqlite3
|
||||
UPDATE users SET role = 'admin' WHERE id = <user-id>;
|
||||
```
|
||||
|
||||
---
|
||||
|
||||
## **Start der Anwendung**
|
||||
Sobald die Docker-Container laufen, ist die Anwendung unter der angegebenen Domain oder IP-Adresse erreichbar. Standardmäßig verwendet der Caddy-Webserver Port 80 (HTTP) und 443 (HTTPS).
|
||||
|
||||
---
|
||||
|
||||
## **Optional: Entwicklungsmodus**
|
||||
Für lokale Tests können Sie die Anwendung ohne Docker starten:
|
||||
1. Installieren Sie Abhängigkeiten:
|
||||
```bash
|
||||
pnpm install
|
||||
```
|
||||
2. Starten Sie den Entwicklungsserver:
|
||||
```bash
|
||||
pnpm dev
|
||||
```
|
||||
Die Anwendung ist dann unter `http://localhost:3000` verfügbar.
|
||||
|
||||
Nächster Schritt: [=> Nutzung](./Nutzung.md)
|
@ -1,75 +0,0 @@
|
||||
# **Features und Nutzung der Anwendung**
|
||||
|
||||
In diesem Abschnitt beschreibe ich die Hauptfunktionen von MYP (Manage Your Printer) und gebe Anweisungen zur Nutzung der verschiedenen Module.
|
||||
|
||||
---
|
||||
|
||||
## **1. Hauptfunktionen**
|
||||
|
||||
### **1.1. Druckerreservierung**
|
||||
- Nutzer können Drucker für einen definierten Zeitraum reservieren.
|
||||
- Konflikte bei Reservierungen werden durch ein Echtzeit-Überprüfungssystem verhindert.
|
||||
|
||||
### **1.2. Fehler- und Auslastungsanalyse**
|
||||
- Darstellung von Druckfehlern nach Kategorien und Häufigkeiten.
|
||||
- Übersicht der aktuellen und historischen Druckernutzung.
|
||||
- Diagramme zur Fehlerrate, Nutzung und Druckvolumen.
|
||||
|
||||
### **1.3. Admin-Dashboard**
|
||||
- Verwaltung von Druckern, Nutzern und Druckaufträgen.
|
||||
- Überblick über alle Abbruchgründe und Druckfehler.
|
||||
- Zugriff auf erweiterte Statistiken und Prognosen.
|
||||
|
||||
---
|
||||
|
||||
## **2. Nutzung der Anwendung**
|
||||
|
||||
### **2.1. Login und Authentifizierung**
|
||||
- Die Anwendung unterstützt OAuth-basierte Authentifizierung.
|
||||
- Nutzer müssen sich mit einem gültigen Konto anmelden, um Zugriff auf die Funktionen zu erhalten.
|
||||
|
||||
### **2.2. Dashboard**
|
||||
- Nach dem Login gelangen die Nutzer auf das Dashboard, das einen Überblick über die aktuelle Druckernutzung bietet.
|
||||
- Administratoren haben Zugriff auf zusätzliche Menüpunkte, wie z. B. Benutzerverwaltung.
|
||||
|
||||
---
|
||||
|
||||
## **3. Admin-Funktionen**
|
||||
|
||||
### **3.1. Druckerverwaltung**
|
||||
- Administratoren können Drucker hinzufügen, bearbeiten oder löschen.
|
||||
- Status eines Druckers (z. B. „in Betrieb“, „außer Betrieb“) kann angepasst werden.
|
||||
|
||||
### **3.2. Nutzerverwaltung**
|
||||
- Verwalten von Benutzerkonten, einschließlich Rollen (z. B. „Admin“ oder „User“).
|
||||
- Benutzer können aktiviert oder deaktiviert werden.
|
||||
|
||||
### **3.3. Statistiken und Berichte**
|
||||
- Diagramme wie:
|
||||
- **Abbruchgründe:** Zeigt häufige Fehlerursachen.
|
||||
- **Fehlerrate:** Prozentuale Fehlerquote der Drucker.
|
||||
- **Nutzung:** Prognosen für die Druckernutzung pro Wochentag.
|
||||
|
||||
---
|
||||
|
||||
## **4. Diagramme und Visualisierungen**
|
||||
|
||||
### **4.1. Abbruchgründe**
|
||||
- Ein Säulendiagramm zeigt die Häufigkeiten der Fehlerursachen.
|
||||
- Nutzt Echtzeit-Daten aus der Druckhistorie.
|
||||
|
||||
### **4.2. Prognostizierte Nutzung**
|
||||
- Ein Liniendiagramm zeigt die erwartete Druckernutzung pro Tag.
|
||||
- Hilft bei der Planung von Wartungszeiten.
|
||||
|
||||
### **4.3. Druckvolumen**
|
||||
- Balkendiagramme vergleichen Druckaufträge heute, diese Woche und diesen Monat.
|
||||
|
||||
---
|
||||
|
||||
## **5. Interaktive Komponenten**
|
||||
- **Benachrichtigungen:** Informieren über Druckaufträge, Fehler oder Systemereignisse.
|
||||
- **Filter und Suchfunktionen:** Erleichtern das Auffinden von Druckern oder Druckaufträgen.
|
||||
- **Rollenbasierter Zugriff:** Funktionen sind je nach Benutzerrolle eingeschränkt.
|
||||
|
||||
Nächster Schritt: [=> Technische Architektur und Codeaufbau](./Architektur.md)
|
@ -1,37 +0,0 @@
|
||||
# **Einleitung**
|
||||
|
||||
> Information: Die Dokumenation wurde mit generativer AI erstellt und kann fehlerhaft sein. Im Zweifel bitte die Quellcode-Dateien anschauen oder die Entwickler kontaktieren.
|
||||
|
||||
## **Projektbeschreibung**
|
||||
MYP (Manage Your Printer) ist eine Webanwendung zur Verwaltung und Reservierung von 3D-Druckern. Das Projekt wurde als Abschlussarbeit im Rahmen der Fachinformatiker-Ausbildung mit Schwerpunkt Daten- und Prozessanalyse entwickelt und dient als Plattform zur einfachen Koordination und Überwachung von Druckressourcen. Es wurde speziell für die Technische Berufsausbildung des Mercedes-Benz Werkes in Berlin-Marienfelde erstellt.
|
||||
|
||||
---
|
||||
|
||||
## **Hauptmerkmale**
|
||||
- **Druckerreservierungen:** Nutzer können 3D-Drucker in definierten Zeitfenstern reservieren.
|
||||
- **Fehleranalyse:** Statistiken über Druckfehler und Abbruchgründe werden visuell dargestellt.
|
||||
- **Druckauslastung:** Echtzeit-Daten über die Nutzung der Drucker.
|
||||
- **Admin-Dashboard:** Übersichtliche Verwaltung und Konfiguration von Druckern, Benutzern und Druckaufträgen.
|
||||
- **Datenbankintegration:** Alle Daten werden in einer SQLite-Datenbank gespeichert und verwaltet.
|
||||
|
||||
---
|
||||
|
||||
## **Technologien**
|
||||
- **Frontend:** React, Next.js, TailwindCSS
|
||||
- **Backend:** Node.js, Drizzle ORM
|
||||
- **Datenbank:** SQLite
|
||||
- **Deployment:** Docker und Raspberry Pi
|
||||
- **Zusätzliche Bibliotheken:** recharts für Diagramme, Faker.js für Testdaten, sowie diverse Radix-UI-Komponenten.
|
||||
|
||||
---
|
||||
|
||||
## **Dateistruktur**
|
||||
Die Repository-Dateien sind in logische Abschnitte unterteilt:
|
||||
1. **Docker-Konfigurationen** (`docker/`) - Skripte und Konfigurationsdateien für die Bereitstellung.
|
||||
2. **Frontend-Komponenten** (`src/app/`) - Weboberfläche und deren Funktionalitäten.
|
||||
3. **Backend-Funktionen** (`src/server/`) - Datenbankinteraktionen und Authentifizierungslogik.
|
||||
4. **Utils und Helferfunktionen** (`src/utils/`) - Wiederverwendbare Dienste und Hilfsmethoden.
|
||||
5. **Datenbank-Skripte** (`drizzle/`) - Datenbankschemas und Migrationsdateien.
|
||||
|
||||
|
||||
Nächster Schritt: [=> Installation](./Installation.md)
|
4
packages/reservation-platform/drizzle.config.ts
Executable file → Normal file
4
packages/reservation-platform/drizzle.config.ts
Executable file → Normal file
@ -5,8 +5,8 @@ export default defineConfig({
|
||||
dialect: "sqlite",
|
||||
schema: "./src/server/db/schema.ts",
|
||||
out: "./drizzle",
|
||||
driver: "libsql",
|
||||
driver: "better-sqlite",
|
||||
dbCredentials: {
|
||||
url: "file:./db/sqlite.db",
|
||||
url: "db/sqlite.db",
|
||||
},
|
||||
});
|
||||
|
0
packages/reservation-platform/drizzle/0000_overjoyed_strong_guy.sql
Executable file → Normal file
0
packages/reservation-platform/drizzle/0000_overjoyed_strong_guy.sql
Executable file → Normal file
0
packages/reservation-platform/drizzle/meta/0000_snapshot.json
Executable file → Normal file
0
packages/reservation-platform/drizzle/meta/0000_snapshot.json
Executable file → Normal file
0
packages/reservation-platform/drizzle/meta/_journal.json
Executable file → Normal file
0
packages/reservation-platform/drizzle/meta/_journal.json
Executable file → Normal file
@ -1,141 +0,0 @@
|
||||
[2025-03-26 16:05:27] ===== Starting MYP Frontend Installation =====
|
||||
[2025-03-26 16:05:27] Installation directory: /home/user/Projektarbeit-MYP/packages/reservation-platform
|
||||
[2025-03-26 16:05:27] System information:
|
||||
Linux raspberrypi 6.6.74+rpt-rpi-2712 #1 SMP PREEMPT Debian 1:6.6.74-1+rpt1 (2025-01-27) aarch64 GNU/Linux
|
||||
Distributor ID: Debian
|
||||
Description: Debian GNU/Linux 12 (bookworm)
|
||||
Release: 12
|
||||
Codename: bookworm
|
||||
[2025-03-26 16:05:27] CPU:
|
||||
[2025-03-26 16:05:27] Memory:
|
||||
[2025-03-26 16:05:27] Disk space: 103G free on /
|
||||
[2025-03-26 16:05:27] Updating system packages...
|
||||
|
||||
WARNING: apt does not have a stable CLI interface. Use with caution in scripts.
|
||||
|
||||
OK:1 http://deb.debian.org/debian bookworm InRelease
|
||||
Holen:2 http://deb.debian.org/debian-security bookworm-security InRelease [48,0 kB]
|
||||
Holen:3 http://deb.debian.org/debian bookworm-updates InRelease [55,4 kB]
|
||||
Holen:4 http://archive.raspberrypi.com/debian bookworm InRelease [39,3 kB]
|
||||
Holen:5 https://download.docker.com/linux/debian bookworm InRelease [43,3 kB]
|
||||
OK:6 https://deb.nodesource.com/node_20.x nodistro InRelease
|
||||
Paketlisten werden gelesen…
|
||||
E: Release-Datei für http://deb.debian.org/debian-security/dists/bookworm-security/InRelease ist noch nicht gültig (ungültig für weitere 1 d 4 h 17 min 18 s). Aktualisierungen für dieses Depot werden nicht angewendet.
|
||||
E: Release-Datei für http://deb.debian.org/debian/dists/bookworm-updates/InRelease ist noch nicht gültig (ungültig für weitere 1 d 17 h 11 min 55 s). Aktualisierungen für dieses Depot werden nicht angewendet.
|
||||
E: Release-Datei für https://download.docker.com/linux/debian/dists/bookworm/InRelease ist noch nicht gültig (ungültig für weitere 21 h 43 min 51 s). Aktualisierungen für dieses Depot werden nicht angewendet.
|
||||
E: Release-Datei für http://archive.raspberrypi.com/debian/dists/bookworm/InRelease ist noch nicht gültig (ungültig für weitere 1 d 13 h 26 min 9 s). Aktualisierungen für dieses Depot werden nicht angewendet.
|
||||
[0;31m[2025-03-26 16:05:29] ERROR: Failed to update apt repositories[0m
|
||||
|
||||
WARNING: apt does not have a stable CLI interface. Use with caution in scripts.
|
||||
|
||||
Paketlisten werden gelesen…
|
||||
Abhängigkeitsbaum wird aufgebaut…
|
||||
Statusinformationen werden eingelesen…
|
||||
Paketaktualisierung (Upgrade) wird berechnet…
|
||||
Die folgenden Pakete wurden automatisch installiert und werden nicht mehr benötigt:
|
||||
avahi-utils gir1.2-handy-1 gir1.2-packagekitglib-1.0 gir1.2-polkit-1.0
|
||||
libcamera0.3 libwlroots12 lxplug-network
|
||||
Verwenden Sie »apt autoremove«, um sie zu entfernen.
|
||||
0 aktualisiert, 0 neu installiert, 0 zu entfernen und 0 nicht aktualisiert.
|
||||
[2025-03-26 16:05:31] Installing essential system packages and network tools...
|
||||
|
||||
WARNING: apt does not have a stable CLI interface. Use with caution in scripts.
|
||||
|
||||
Paketlisten werden gelesen…
|
||||
Abhängigkeitsbaum wird aufgebaut…
|
||||
Statusinformationen werden eingelesen…
|
||||
curl ist schon die neueste Version (7.88.1-10+deb12u12).
|
||||
git ist schon die neueste Version (1:2.39.5-0+deb12u2).
|
||||
wget ist schon die neueste Version (1.21.3-1+deb12u1).
|
||||
htop ist schon die neueste Version (3.2.2-2).
|
||||
net-tools ist schon die neueste Version (2.10-0.1).
|
||||
iptables ist schon die neueste Version (1.8.9-2).
|
||||
iputils-ping ist schon die neueste Version (3:20221126-1+deb12u1).
|
||||
traceroute ist schon die neueste Version (1:2.1.2-1).
|
||||
nmap ist schon die neueste Version (7.93+dfsg1-1).
|
||||
tcpdump ist schon die neueste Version (4.99.3-1).
|
||||
nftables ist schon die neueste Version (1.0.6-2+deb12u2).
|
||||
netcat-openbsd ist schon die neueste Version (1.219-1).
|
||||
dnsutils ist schon die neueste Version (1:9.18.33-1~deb12u2).
|
||||
whois ist schon die neueste Version (5.5.17).
|
||||
vim ist schon die neueste Version (2:9.0.1378-2+deb12u2).
|
||||
nano ist schon die neueste Version (7.2-1+deb12u1).
|
||||
rsync ist schon die neueste Version (3.2.7-1+deb12u2).
|
||||
zip ist schon die neueste Version (3.0-13).
|
||||
unzip ist schon die neueste Version (6.0-28).
|
||||
xz-utils ist schon die neueste Version (5.4.1-0.2).
|
||||
sqlite3 ist schon die neueste Version (3.40.1-2+deb12u1).
|
||||
apt-transport-https ist schon die neueste Version (2.6.1).
|
||||
ca-certificates ist schon die neueste Version (20230311).
|
||||
gnupg ist schon die neueste Version (2.2.40-1.1).
|
||||
lsb-release ist schon die neueste Version (12.0-1).
|
||||
bash-completion ist schon die neueste Version (1:2.11-6).
|
||||
make ist schon die neueste Version (4.3-4.1).
|
||||
build-essential ist schon die neueste Version (12.9).
|
||||
libssl-dev ist schon die neueste Version (3.0.15-1~deb12u1+rpt1).
|
||||
zlib1g-dev ist schon die neueste Version (1:1.2.13.dfsg-1+rpt1).
|
||||
Die folgenden Pakete wurden automatisch installiert und werden nicht mehr benötigt:
|
||||
avahi-utils gir1.2-handy-1 gir1.2-packagekitglib-1.0 gir1.2-polkit-1.0
|
||||
libcamera0.3 libwlroots12 lxplug-network
|
||||
Verwenden Sie »apt autoremove«, um sie zu entfernen.
|
||||
0 aktualisiert, 0 neu installiert, 0 zu entfernen und 0 nicht aktualisiert.
|
||||
[2025-03-26 16:05:32] Installing Docker from official repository...
|
||||
[2025-03-26 16:05:32] Docker already installed: Docker version 28.0.4, build b8034c0
|
||||
[2025-03-26 16:05:32] Docker Compose already installed: Docker Compose version v2.20.3
|
||||
[2025-03-26 16:05:32] Node.js v20.19.0 already installed
|
||||
[2025-03-26 16:05:33] pnpm 9.12.1 already installed
|
||||
[2025-03-26 16:05:33] Ensuring Docker is running...
|
||||
Synchronizing state of docker.service with SysV service script with /lib/systemd/systemd-sysv-install.
|
||||
Executing: /lib/systemd/systemd-sysv-install enable docker
|
||||
[2025-03-26 16:05:33] Setting up Docker for multi-architecture builds...
|
||||
[2025-03-26 16:05:34] Docker buildx already configured
|
||||
[2025-03-26 16:05:34] Creating a copy of the environment file for version control...
|
||||
[2025-03-26 16:05:34] Setting up database directory...
|
||||
[2025-03-26 16:05:34] Running in interactive mode...
|
||||
[2025-03-26 16:05:36] Setting up test environment for integration testing...
|
||||
[2025-03-26 16:05:36] Running integration test to verify the environment...
|
||||
[2025-03-26 16:05:36] Test environment setup complete!
|
||||
[2025-03-26 16:05:36] To run integration tests again: cd /home/user/Projektarbeit-MYP/packages/reservation-platform && pnpm test:integration
|
||||
[2025-03-26 16:05:36] Or directly: /home/user/Projektarbeit-MYP/packages/reservation-platform/docker/test-integration.sh
|
||||
[2025-03-26 16:05:36] Installing project dependencies with pnpm...
|
||||
Progress: resolved 0, reused 0, downloaded 1, added 0
|
||||
ERR_PNPM_NO_MATCHING_VERSION No matching version found for start-server-and-test@^2.2.0
|
||||
|
||||
This error happened while installing a direct dependency of /home/user/Projektarbeit-MYP/packages/reservation-platform
|
||||
|
||||
The latest release of start-server-and-test is "2.0.11".
|
||||
|
||||
If you need the full list of all 79 published versions run "$ pnpm view start-server-and-test versions".
|
||||
[0;31m[2025-03-26 16:05:38] ERROR: Failed to install dependencies[0m
|
||||
[2025-03-26 16:05:38] For issues, check the log file at: /home/user/Projektarbeit-MYP/packages/reservation-platform/frontend-install.log
|
||||
[2025-03-26 16:05:38] ===== Post-Installation Information =====
|
||||
[2025-03-26 16:05:38] Here are some helpful commands for managing your installation:
|
||||
[2025-03-26 16:05:38]
|
||||
[2025-03-26 16:05:38] System management:
|
||||
[2025-03-26 16:05:38] - Check system status: htop, free -h, df -h
|
||||
[2025-03-26 16:05:38] - Network status: ip a, netstat -tulpn, ss -tulpn
|
||||
[2025-03-26 16:05:38] - View logs: tail -f /var/log/syslog, journalctl -f
|
||||
[2025-03-26 16:05:38]
|
||||
[2025-03-26 16:05:38] Frontend development:
|
||||
[2025-03-26 16:05:38] - Start development server: /home/user/Projektarbeit-MYP/packages/reservation-platform/start-dev-server.sh
|
||||
[2025-03-26 16:05:38] - Install missing dependencies: cd /home/user/Projektarbeit-MYP/packages/reservation-platform && pnpm install
|
||||
[2025-03-26 16:05:38] - Lint code: cd /home/user/Projektarbeit-MYP/packages/reservation-platform && pnpm lint
|
||||
[2025-03-26 16:05:38] - Format code: cd /home/user/Projektarbeit-MYP/packages/reservation-platform && npx @biomejs/biome format --write ./src
|
||||
[2025-03-26 16:05:38]
|
||||
[2025-03-26 16:05:38] Docker management:
|
||||
[2025-03-26 16:05:38] - List containers: docker ps -a
|
||||
[2025-03-26 16:05:38] - Container logs: docker logs <container_id>
|
||||
[2025-03-26 16:05:38] - Stop containers: docker-compose -f /home/user/Projektarbeit-MYP/packages/reservation-platform/docker/compose.yml down
|
||||
[2025-03-26 16:05:38] - Start containers: docker-compose -f /home/user/Projektarbeit-MYP/packages/reservation-platform/docker/compose.yml up -d
|
||||
[2025-03-26 16:05:38] - Restart containers: docker-compose -f /home/user/Projektarbeit-MYP/packages/reservation-platform/docker/compose.yml restart
|
||||
[2025-03-26 16:05:38]
|
||||
[2025-03-26 16:05:38] Test environment commands:
|
||||
[2025-03-26 16:05:38] - Run integration test: bash /home/user/Projektarbeit-MYP/packages/reservation-platform/docker/test-integration.sh
|
||||
[2025-03-26 16:05:38] - View test logs: cat /home/user/Projektarbeit-MYP/packages/reservation-platform/docker/test-integration.log
|
||||
[2025-03-26 16:05:38] - Stop test environment: docker-compose -f /home/user/Projektarbeit-MYP/packages/reservation-platform/docker/test-env.yml down
|
||||
[2025-03-26 16:05:38]
|
||||
[2025-03-26 16:05:38] Backend connection:
|
||||
[2025-03-26 16:05:38] - Test backend connection: curl -I http://192.168.0.105:5000/api/test
|
||||
[2025-03-26 16:05:38] - Check backend accessibility: ping 192.168.0.105
|
||||
[2025-03-26 16:05:38]
|
||||
[2025-03-26 16:05:38] Installation Complete! 🎉
|
File diff suppressed because it is too large
Load Diff
24
packages/reservation-platform/next.config.mjs
Executable file → Normal file
24
packages/reservation-platform/next.config.mjs
Executable file → Normal file
@ -1,26 +1,4 @@
|
||||
/** @type {import('next').NextConfig} */
|
||||
const nextConfig = {
|
||||
async headers() {
|
||||
return [
|
||||
{
|
||||
source: "/:path*",
|
||||
headers: [
|
||||
{
|
||||
key: "Access-Control-Allow-Origin",
|
||||
value: "m040tbaraspi001.de040.corpintra.net",
|
||||
},
|
||||
{
|
||||
key: "Access-Control-Allow-Methods",
|
||||
value: "GET, POST, PUT, DELETE, OPTIONS",
|
||||
},
|
||||
{
|
||||
key: "Access-Control-Allow-Headers",
|
||||
value: "Content-Type, Authorization",
|
||||
},
|
||||
],
|
||||
},
|
||||
];
|
||||
},
|
||||
};
|
||||
const nextConfig = {};
|
||||
|
||||
export default nextConfig;
|
||||
|
94
packages/reservation-platform/package.json
Executable file → Normal file
94
packages/reservation-platform/package.json
Executable file → Normal file
@ -1,20 +1,12 @@
|
||||
{
|
||||
"name": "myp-rp",
|
||||
"version": "1.0.0",
|
||||
"version": "0.1.0",
|
||||
"private": true,
|
||||
"packageManager": "pnpm@9.12.1",
|
||||
"scripts": {
|
||||
"test:integration": "bash docker/test-integration.sh",
|
||||
"dev": "next dev",
|
||||
"build": "next build",
|
||||
"start": "next start",
|
||||
"lint": "next lint",
|
||||
"cypress": "cypress open",
|
||||
"test": "cypress run",
|
||||
"test:e2e": "start-server-and-test dev http://localhost:3000 test",
|
||||
"test:start-environment": "bash cypress/start-test-environment.sh",
|
||||
"test:stop-environment": "bash cypress/stop-test-environment.sh",
|
||||
"test:with-backend": "bash cypress/start-test-environment.sh && cypress open && bash cypress/stop-test-environment.sh",
|
||||
"db:create-default": "mkdir -p db/",
|
||||
"db:generate-sqlite": "pnpm drizzle-kit generate",
|
||||
"db:clean": "rm -rf db/ drizzle/",
|
||||
@ -23,70 +15,58 @@
|
||||
"db:reset": "pnpm db:clean && pnpm db"
|
||||
},
|
||||
"dependencies": {
|
||||
"@faker-js/faker": "^9.2.0",
|
||||
"@headlessui/react": "^2.1.10",
|
||||
"@headlessui/tailwindcss": "^0.2.1",
|
||||
"@hookform/resolvers": "^3.9.0",
|
||||
"@libsql/client": "^0.14.0",
|
||||
"@lucia-auth/adapter-drizzle": "^1.1.0",
|
||||
"@radix-ui/react-alert-dialog": "^1.1.2",
|
||||
"@radix-ui/react-avatar": "^1.1.1",
|
||||
"@radix-ui/react-dialog": "^1.1.2",
|
||||
"@radix-ui/react-dropdown-menu": "^2.1.2",
|
||||
"@radix-ui/react-hover-card": "^1.1.2",
|
||||
"@headlessui/react": "^2.0.3",
|
||||
"@headlessui/tailwindcss": "^0.2.0",
|
||||
"@hookform/resolvers": "^3.3.4",
|
||||
"@lucia-auth/adapter-drizzle": "^1.0.7",
|
||||
"@radix-ui/react-alert-dialog": "^1.0.5",
|
||||
"@radix-ui/react-avatar": "^1.0.4",
|
||||
"@radix-ui/react-dialog": "^1.0.5",
|
||||
"@radix-ui/react-dropdown-menu": "^2.0.6",
|
||||
"@radix-ui/react-hover-card": "^1.0.7",
|
||||
"@radix-ui/react-icons": "^1.3.0",
|
||||
"@radix-ui/react-label": "^2.1.0",
|
||||
"@radix-ui/react-scroll-area": "^1.2.0",
|
||||
"@radix-ui/react-select": "^2.1.2",
|
||||
"@radix-ui/react-slot": "^1.1.0",
|
||||
"@radix-ui/react-tabs": "^1.1.1",
|
||||
"@radix-ui/react-toast": "^1.2.2",
|
||||
"@remixicon/react": "^4.3.0",
|
||||
"@tanstack/react-table": "^8.20.5",
|
||||
"@tremor/react": "^3.18.3",
|
||||
"arctic": "^1.9.2",
|
||||
"@radix-ui/react-label": "^2.0.2",
|
||||
"@radix-ui/react-scroll-area": "^1.0.5",
|
||||
"@radix-ui/react-select": "^2.0.0",
|
||||
"@radix-ui/react-slot": "^1.0.2",
|
||||
"@radix-ui/react-tabs": "^1.0.4",
|
||||
"@radix-ui/react-toast": "^1.1.5",
|
||||
"@remixicon/react": "^4.2.0",
|
||||
"@tanstack/react-table": "^8.16.0",
|
||||
"@tremor/react": "^3.16.2",
|
||||
"arctic": "^1.8.1",
|
||||
"better-sqlite3": "^9.6.0",
|
||||
"class-variance-authority": "^0.7.0",
|
||||
"clsx": "^2.1.1",
|
||||
"date-fns": "^4.1.0",
|
||||
"drizzle-orm": "^0.30.10",
|
||||
"lodash": "^4.17.21",
|
||||
"lucia": "^3.2.1",
|
||||
"lucia": "^3.2.0",
|
||||
"lucide-react": "^0.378.0",
|
||||
"luxon": "^3.5.0",
|
||||
"next": "14.2.3",
|
||||
"next-themes": "^0.3.0",
|
||||
"oslo": "^1.2.1",
|
||||
"oslo": "^1.2.0",
|
||||
"react": "^18.3.1",
|
||||
"react-dom": "^18.3.1",
|
||||
"react-hook-form": "^7.53.0",
|
||||
"react-hook-form": "^7.51.4",
|
||||
"react-if": "^4.1.5",
|
||||
"react-timer-hook": "^3.0.7",
|
||||
"recharts": "^2.13.3",
|
||||
"regression": "^2.0.1",
|
||||
"sonner": "^1.5.0",
|
||||
"sqlite": "^5.1.1",
|
||||
"sqlite3": "^5.1.7",
|
||||
"sonner": "^1.4.41",
|
||||
"swr": "^2.2.5",
|
||||
"tailwind-merge": "^2.5.3",
|
||||
"tailwind-merge": "^2.3.0",
|
||||
"tailwindcss-animate": "^1.0.7",
|
||||
"use-debounce": "^10.0.3",
|
||||
"uuid": "^11.0.2",
|
||||
"use-debounce": "^10.0.0",
|
||||
"zod": "^3.23.8"
|
||||
},
|
||||
"devDependencies": {
|
||||
"@biomejs/biome": "^1.9.3",
|
||||
"@tailwindcss/forms": "^0.5.9",
|
||||
"@types/lodash": "^4.17.13",
|
||||
"@types/luxon": "^3.4.2",
|
||||
"@types/node": "^20.16.11",
|
||||
"@types/react": "^18.3.11",
|
||||
"@types/react-dom": "^18.3.1",
|
||||
"cypress": "^13.6.6",
|
||||
"drizzle-kit": "^0.21.4",
|
||||
"postcss": "^8.4.47",
|
||||
"start-server-and-test": "^2.0.11",
|
||||
"tailwindcss": "^3.4.13",
|
||||
"ts-node": "^10.9.2",
|
||||
"typescript": "^5.6.3"
|
||||
"@biomejs/biome": "^1.7.3",
|
||||
"@tailwindcss/forms": "^0.5.7",
|
||||
"@types/better-sqlite3": "^7.6.10",
|
||||
"@types/node": "^20.12.11",
|
||||
"@types/react": "^18.3.1",
|
||||
"@types/react-dom": "^18.3.0",
|
||||
"drizzle-kit": "^0.21.1",
|
||||
"postcss": "^8.4.38",
|
||||
"tailwindcss": "^3.4.3",
|
||||
"typescript": "^5.4.5"
|
||||
}
|
||||
}
|
||||
|
2559
packages/reservation-platform/pnpm-lock.yaml
generated
Executable file → Normal file
2559
packages/reservation-platform/pnpm-lock.yaml
generated
Executable file → Normal file
File diff suppressed because it is too large
Load Diff
5
packages/reservation-platform/pnpm-workspace.yaml
Normal file
5
packages/reservation-platform/pnpm-workspace.yaml
Normal file
@ -0,0 +1,5 @@
|
||||
ignoredBuiltDependencies:
|
||||
- '@biomejs/biome'
|
||||
- better-sqlite3
|
||||
- es5-ext
|
||||
- esbuild
|
0
packages/reservation-platform/postcss.config.mjs
Executable file → Normal file
0
packages/reservation-platform/postcss.config.mjs
Executable file → Normal file
0
packages/reservation-platform/public/next.svg
Executable file → Normal file
0
packages/reservation-platform/public/next.svg
Executable file → Normal file
Before Width: | Height: | Size: 1.3 KiB After Width: | Height: | Size: 1.3 KiB |
0
packages/reservation-platform/public/vercel.svg
Executable file → Normal file
0
packages/reservation-platform/public/vercel.svg
Executable file → Normal file
Before Width: | Height: | Size: 629 B After Width: | Height: | Size: 629 B |
File diff suppressed because it is too large
Load Diff
@ -1,367 +0,0 @@
|
||||
const sqlite3 = require("sqlite3");
|
||||
const faker = require("@faker-js/faker").faker;
|
||||
const { random, sample, sampleSize, sum } = require("lodash");
|
||||
const { DateTime } = require("luxon");
|
||||
const { open } = require("sqlite");
|
||||
const { v4: uuidv4 } = require("uuid");
|
||||
|
||||
const dbPath = "./db/sqlite.db";
|
||||
|
||||
// Configuration for test data generation
|
||||
let startDate = DateTime.fromISO("2024-10-08");
|
||||
let endDate = DateTime.fromISO("2024-11-08");
|
||||
let numberOfPrinters = 5;
|
||||
|
||||
// Use weekday names for better readability and ease of setting trends
|
||||
let avgPrintTimesPerDay = {
|
||||
Monday: 4,
|
||||
Tuesday: 2,
|
||||
Wednesday: 5,
|
||||
Thursday: 2,
|
||||
Friday: 3,
|
||||
Saturday: 0,
|
||||
Sunday: 0,
|
||||
}; // Average number of prints for each weekday
|
||||
|
||||
let avgPrintDurationPerDay = {
|
||||
Monday: 240, // Total average duration in minutes for Monday
|
||||
Tuesday: 30,
|
||||
Wednesday: 45,
|
||||
Thursday: 40,
|
||||
Friday: 120,
|
||||
Saturday: 0,
|
||||
Sunday: 0,
|
||||
}; // Average total duration of prints for each weekday
|
||||
|
||||
let printerUsage = {
|
||||
"Drucker 1": 0.5,
|
||||
"Drucker 2": 0.7,
|
||||
"Drucker 3": 0.6,
|
||||
"Drucker 4": 0.3,
|
||||
"Drucker 5": 0.4,
|
||||
}; // Usage percentages for each printer
|
||||
|
||||
// **New Configurations for Error Rates**
|
||||
let generalErrorRate = 0.05; // 5% chance any print job may fail
|
||||
let printerErrorRates = {
|
||||
"Drucker 1": 0.02, // 2% error rate for Printer 1
|
||||
"Drucker 2": 0.03,
|
||||
"Drucker 3": 0.01,
|
||||
"Drucker 4": 0.05,
|
||||
"Drucker 5": 0.04,
|
||||
}; // Error rates for each printer
|
||||
|
||||
const holidays = []; // Example holidays
|
||||
const existingJobs = [];
|
||||
|
||||
const initDB = async () => {
|
||||
console.log("Initializing database connection...");
|
||||
return open({
|
||||
filename: dbPath,
|
||||
driver: sqlite3.Database,
|
||||
});
|
||||
};
|
||||
|
||||
const createUser = (isPowerUser = false) => {
|
||||
const name = [faker.person.firstName(), faker.person.lastName()];
|
||||
|
||||
const user = {
|
||||
id: uuidv4(),
|
||||
github_id: faker.number.int(),
|
||||
username: `${name[0].slice(0, 2)}${name[1].slice(0, 6)}`.toUpperCase(),
|
||||
displayName: `${name[0]} ${name[1]}`.toUpperCase(),
|
||||
email: `${name[0]}.${name[1]}@example.com`,
|
||||
role: sample(["user", "admin"]),
|
||||
isPowerUser,
|
||||
};
|
||||
console.log("Created user:", user);
|
||||
return user;
|
||||
};
|
||||
|
||||
const createPrinter = (index) => {
|
||||
const printer = {
|
||||
id: uuidv4(),
|
||||
name: `Drucker ${index}`,
|
||||
description: faker.lorem.sentence(),
|
||||
status: random(0, 2),
|
||||
};
|
||||
console.log("Created printer:", printer);
|
||||
return printer;
|
||||
};
|
||||
|
||||
const isPrinterAvailable = (printer, startAt, duration) => {
|
||||
const endAt = startAt + duration * 60 * 1000; // Convert minutes to milliseconds
|
||||
return !existingJobs.some((job) => {
|
||||
const jobStart = job.startAt;
|
||||
const jobEnd = job.startAt + job.durationInMinutes * 60 * 1000;
|
||||
return (
|
||||
printer.id === job.printerId &&
|
||||
((startAt >= jobStart && startAt < jobEnd) ||
|
||||
(endAt > jobStart && endAt <= jobEnd) ||
|
||||
(startAt <= jobStart && endAt >= jobEnd))
|
||||
);
|
||||
});
|
||||
};
|
||||
|
||||
const createPrintJob = (users, printers, startAt, duration) => {
|
||||
const user = sample(users);
|
||||
let printer;
|
||||
|
||||
// Weighted selection based on printer usage
|
||||
const printerNames = Object.keys(printerUsage);
|
||||
const weightedPrinters = printers.filter((p) => printerNames.includes(p.name));
|
||||
|
||||
// Create a weighted array of printers based on usage percentages
|
||||
const printerWeights = weightedPrinters.map((p) => ({
|
||||
printer: p,
|
||||
weight: printerUsage[p.name],
|
||||
}));
|
||||
|
||||
const totalWeight = sum(printerWeights.map((pw) => pw.weight));
|
||||
const randomWeight = Math.random() * totalWeight;
|
||||
let accumulatedWeight = 0;
|
||||
for (const pw of printerWeights) {
|
||||
accumulatedWeight += pw.weight;
|
||||
if (randomWeight <= accumulatedWeight) {
|
||||
printer = pw.printer;
|
||||
break;
|
||||
}
|
||||
}
|
||||
|
||||
if (!printer) {
|
||||
printer = sample(printers);
|
||||
}
|
||||
|
||||
if (!isPrinterAvailable(printer, startAt, duration)) {
|
||||
console.log("Printer not available, skipping job creation.");
|
||||
return null;
|
||||
}
|
||||
|
||||
// **Determine if the job should be aborted based on error rates**
|
||||
let aborted = false;
|
||||
let abortReason = null;
|
||||
|
||||
// Calculate the combined error rate
|
||||
const printerErrorRate = printerErrorRates[printer.name] || 0;
|
||||
const combinedErrorRate = 1 - (1 - generalErrorRate) * (1 - printerErrorRate);
|
||||
|
||||
if (Math.random() < combinedErrorRate) {
|
||||
aborted = true;
|
||||
const errorMessages = [
|
||||
"Unbekannt",
|
||||
"Keine Ahnung",
|
||||
"Falsch gebucht",
|
||||
"Filament gelöst",
|
||||
"Druckabbruch",
|
||||
"Düsenverstopfung",
|
||||
"Schichthaftung fehlgeschlagen",
|
||||
"Materialmangel",
|
||||
"Dateifehler",
|
||||
"Temperaturproblem",
|
||||
"Mechanischer Fehler",
|
||||
"Softwarefehler",
|
||||
"Kalibrierungsfehler",
|
||||
"Überhitzung",
|
||||
];
|
||||
abortReason = sample(errorMessages); // Generate a random abort reason
|
||||
}
|
||||
|
||||
const printJob = {
|
||||
id: uuidv4(),
|
||||
printerId: printer.id,
|
||||
userId: user.id,
|
||||
startAt,
|
||||
durationInMinutes: duration,
|
||||
comments: faker.lorem.sentence(),
|
||||
aborted,
|
||||
abortReason,
|
||||
};
|
||||
console.log("Created print job:", printJob);
|
||||
return printJob;
|
||||
};
|
||||
|
||||
const generatePrintJobsForDay = async (users, printers, dayDate, totalJobsForDay, totalDurationForDay, db, dryRun) => {
|
||||
console.log(`Generating print jobs for ${dayDate.toISODate()}...`);
|
||||
|
||||
// Generate random durations that sum up approximately to totalDurationForDay
|
||||
const durations = [];
|
||||
let remainingDuration = totalDurationForDay;
|
||||
for (let i = 0; i < totalJobsForDay; i++) {
|
||||
const avgJobDuration = remainingDuration / (totalJobsForDay - i);
|
||||
const jobDuration = Math.max(
|
||||
Math.round(random(avgJobDuration * 0.8, avgJobDuration * 1.2)),
|
||||
5, // Minimum duration of 5 minutes
|
||||
);
|
||||
durations.push(jobDuration);
|
||||
remainingDuration -= jobDuration;
|
||||
}
|
||||
|
||||
// Shuffle durations to randomize job lengths
|
||||
const shuffledDurations = sampleSize(durations, durations.length);
|
||||
|
||||
for (let i = 0; i < totalJobsForDay; i++) {
|
||||
const duration = shuffledDurations[i];
|
||||
|
||||
// Random start time between 8 AM and 6 PM, adjusted to avoid overlapping durations
|
||||
const possibleStartHours = Array.from({ length: 10 }, (_, idx) => idx + 8); // 8 AM to 6 PM
|
||||
let startAt;
|
||||
let attempts = 0;
|
||||
do {
|
||||
const hour = sample(possibleStartHours);
|
||||
const minute = random(0, 59);
|
||||
startAt = dayDate.set({ hour, minute, second: 0, millisecond: 0 }).toMillis();
|
||||
attempts++;
|
||||
if (attempts > 10) {
|
||||
console.log("Unable to find available time slot, skipping job.");
|
||||
break;
|
||||
}
|
||||
} while (!isPrinterAvailable(sample(printers), startAt, duration));
|
||||
|
||||
if (attempts > 10) continue;
|
||||
|
||||
const printJob = createPrintJob(users, printers, startAt, duration);
|
||||
if (printJob) {
|
||||
if (!dryRun) {
|
||||
await db.run(
|
||||
`INSERT INTO printJob (id, printerId, userId, startAt, durationInMinutes, comments, aborted, abortReason)
|
||||
VALUES (?, ?, ?, ?, ?, ?, ?, ?)`,
|
||||
[
|
||||
printJob.id,
|
||||
printJob.printerId,
|
||||
printJob.userId,
|
||||
printJob.startAt,
|
||||
printJob.durationInMinutes,
|
||||
printJob.comments,
|
||||
printJob.aborted ? 1 : 0,
|
||||
printJob.abortReason,
|
||||
],
|
||||
);
|
||||
}
|
||||
existingJobs.push(printJob);
|
||||
console.log("Inserted print job into database:", printJob.id);
|
||||
}
|
||||
}
|
||||
};
|
||||
|
||||
const generateTestData = async (dryRun = false) => {
|
||||
console.log("Starting test data generation...");
|
||||
const db = await initDB();
|
||||
|
||||
// Generate users and printers
|
||||
const users = [
|
||||
...Array.from({ length: 7 }, () => createUser(false)),
|
||||
...Array.from({ length: 3 }, () => createUser(true)),
|
||||
];
|
||||
const printers = Array.from({ length: numberOfPrinters }, (_, index) => createPrinter(index + 1));
|
||||
|
||||
if (!dryRun) {
|
||||
// Insert users into the database
|
||||
for (const user of users) {
|
||||
await db.run(
|
||||
`INSERT INTO user (id, github_id, name, displayName, email, role)
|
||||
VALUES (?, ?, ?, ?, ?, ?)`,
|
||||
[user.id, user.github_id, user.username, user.displayName, user.email, user.role],
|
||||
);
|
||||
console.log("Inserted user into database:", user.id);
|
||||
}
|
||||
|
||||
// Insert printers into the database
|
||||
for (const printer of printers) {
|
||||
await db.run(
|
||||
`INSERT INTO printer (id, name, description, status)
|
||||
VALUES (?, ?, ?, ?)`,
|
||||
[printer.id, printer.name, printer.description, printer.status],
|
||||
);
|
||||
console.log("Inserted printer into database:", printer.id);
|
||||
}
|
||||
}
|
||||
|
||||
// Generate print jobs for each day within the specified date range
|
||||
let currentDay = startDate;
|
||||
while (currentDay <= endDate) {
|
||||
const weekdayName = currentDay.toFormat("EEEE"); // Get weekday name (e.g., 'Monday')
|
||||
if (holidays.includes(currentDay.toISODate()) || avgPrintTimesPerDay[weekdayName] === 0) {
|
||||
console.log(`Skipping holiday or no jobs scheduled: ${currentDay.toISODate()}`);
|
||||
currentDay = currentDay.plus({ days: 1 });
|
||||
continue;
|
||||
}
|
||||
|
||||
const totalJobsForDay = avgPrintTimesPerDay[weekdayName];
|
||||
const totalDurationForDay = avgPrintDurationPerDay[weekdayName];
|
||||
|
||||
await generatePrintJobsForDay(users, printers, currentDay, totalJobsForDay, totalDurationForDay, db, dryRun);
|
||||
currentDay = currentDay.plus({ days: 1 });
|
||||
}
|
||||
|
||||
if (!dryRun) {
|
||||
await db.close();
|
||||
console.log("Database connection closed. Test data generation complete.");
|
||||
} else {
|
||||
console.log("Dry run complete. No data was written to the database.");
|
||||
}
|
||||
};
|
||||
|
||||
const setConfigurations = (config) => {
|
||||
if (config.startDate) startDate = DateTime.fromISO(config.startDate);
|
||||
if (config.endDate) endDate = DateTime.fromISO(config.endDate);
|
||||
if (config.numberOfPrinters) numberOfPrinters = config.numberOfPrinters;
|
||||
if (config.avgPrintTimesPerDay) avgPrintTimesPerDay = config.avgPrintTimesPerDay;
|
||||
if (config.avgPrintDurationPerDay) avgPrintDurationPerDay = config.avgPrintDurationPerDay;
|
||||
if (config.printerUsage) printerUsage = config.printerUsage;
|
||||
if (config.generalErrorRate !== undefined) generalErrorRate = config.generalErrorRate;
|
||||
if (config.printerErrorRates) printerErrorRates = config.printerErrorRates;
|
||||
};
|
||||
|
||||
// Example usage
|
||||
setConfigurations({
|
||||
startDate: "2024-10-08",
|
||||
endDate: "2024-11-08",
|
||||
numberOfPrinters: 6,
|
||||
avgPrintTimesPerDay: {
|
||||
Monday: 4, // High usage
|
||||
Tuesday: 2, // Low usage
|
||||
Wednesday: 3, // Low usage
|
||||
Thursday: 2, // Low usage
|
||||
Friday: 8, // High usage
|
||||
Saturday: 0,
|
||||
Sunday: 0,
|
||||
},
|
||||
avgPrintDurationPerDay: {
|
||||
Monday: 300, // High total duration
|
||||
Tuesday: 60, // Low total duration
|
||||
Wednesday: 90,
|
||||
Thursday: 60,
|
||||
Friday: 240,
|
||||
Saturday: 0,
|
||||
Sunday: 0,
|
||||
},
|
||||
printerUsage: {
|
||||
"Drucker 1": 2.3,
|
||||
"Drucker 2": 1.7,
|
||||
"Drucker 3": 0.1,
|
||||
"Drucker 4": 1.5,
|
||||
"Drucker 5": 2.4,
|
||||
"Drucker 6": 0.3,
|
||||
"Drucker 7": 0.9,
|
||||
"Drucker 8": 0.1,
|
||||
},
|
||||
generalErrorRate: 0.05, // 5% general error rate
|
||||
printerErrorRates: {
|
||||
"Drucker 1": 0.02,
|
||||
"Drucker 2": 0.03,
|
||||
"Drucker 3": 0.1,
|
||||
"Drucker 4": 0.05,
|
||||
"Drucker 5": 0.04,
|
||||
"Drucker 6": 0.02,
|
||||
"Drucker 7": 0.01,
|
||||
"PrinteDrucker 8": 0.03,
|
||||
},
|
||||
});
|
||||
|
||||
generateTestData(process.argv.includes("--dry-run"))
|
||||
.then(() => {
|
||||
console.log("Test data generation script finished.");
|
||||
})
|
||||
.catch((err) => {
|
||||
console.error("Error generating test data:", err);
|
||||
});
|
0
packages/reservation-platform/src/app/admin/about/page.tsx
Executable file → Normal file
0
packages/reservation-platform/src/app/admin/about/page.tsx
Executable file → Normal file
0
packages/reservation-platform/src/app/admin/admin-sidebar.tsx
Executable file → Normal file
0
packages/reservation-platform/src/app/admin/admin-sidebar.tsx
Executable file → Normal file
@ -0,0 +1,26 @@
|
||||
"use client";
|
||||
|
||||
import { BarChart } from "@tremor/react";
|
||||
|
||||
interface AbortReasonsBarChartProps {
|
||||
// biome-ignore lint/suspicious/noExplicitAny: temporary fix
|
||||
data: any[];
|
||||
}
|
||||
|
||||
export function AbortReasonsBarChart(props: AbortReasonsBarChartProps) {
|
||||
const { data } = props;
|
||||
|
||||
const dataFormatter = (number: number) => Intl.NumberFormat("de-DE").format(number).toString();
|
||||
|
||||
return (
|
||||
<BarChart
|
||||
className="mt-6"
|
||||
data={data}
|
||||
index="name"
|
||||
categories={["Anzahl"]}
|
||||
colors={["blue"]}
|
||||
valueFormatter={dataFormatter}
|
||||
yAxisWidth={48}
|
||||
/>
|
||||
);
|
||||
}
|
@ -0,0 +1,20 @@
|
||||
"use client";
|
||||
|
||||
import { DonutChart, Legend } from "@tremor/react";
|
||||
|
||||
const dataFormatter = (number: number) => Intl.NumberFormat("de-DE").format(number).toString();
|
||||
|
||||
interface LoadFactorChartProps {
|
||||
// biome-ignore lint/suspicious/noExplicitAny: temp. fix
|
||||
data: any[];
|
||||
}
|
||||
export function LoadFactorChart(props: LoadFactorChartProps) {
|
||||
const { data } = props;
|
||||
|
||||
return (
|
||||
<div className="flex gap-4">
|
||||
<DonutChart data={data} variant="donut" colors={["green", "yellow"]} valueFormatter={dataFormatter} />
|
||||
<Legend categories={["Frei", "Belegt"]} colors={["green", "yellow"]} className="max-w-xs" />
|
||||
</div>
|
||||
);
|
||||
}
|
@ -1,68 +0,0 @@
|
||||
"use client";
|
||||
|
||||
import { Card, CardContent, CardDescription, CardHeader, CardTitle } from "@/components/ui/card";
|
||||
import { type ChartConfig, ChartContainer, ChartTooltip, ChartTooltipContent } from "@/components/ui/chart";
|
||||
import { Bar, BarChart, CartesianGrid, LabelList, XAxis, YAxis } from "recharts";
|
||||
|
||||
export const description = "Ein Säulendiagramm zur Darstellung der Abbruchgründe und ihrer Häufigkeit";
|
||||
|
||||
interface AbortReasonCountChartProps {
|
||||
abortReasonCount: {
|
||||
abortReason: string;
|
||||
count: number;
|
||||
}[];
|
||||
}
|
||||
|
||||
const chartConfig = {
|
||||
abortReason: {
|
||||
label: "Abbruchgrund",
|
||||
},
|
||||
} satisfies ChartConfig;
|
||||
|
||||
export function AbortReasonCountChart({ abortReasonCount }: AbortReasonCountChartProps) {
|
||||
// Transform data to fit the chart structure
|
||||
const chartData = abortReasonCount.map((reason) => ({
|
||||
abortReason: reason.abortReason,
|
||||
count: reason.count,
|
||||
}));
|
||||
|
||||
return (
|
||||
<Card>
|
||||
<CardHeader>
|
||||
<CardTitle>Abbruchgründe</CardTitle>
|
||||
<CardDescription>Häufigkeit der Abbruchgründe für Druckaufträge</CardDescription>
|
||||
</CardHeader>
|
||||
<CardContent>
|
||||
<ChartContainer config={chartConfig}>
|
||||
<BarChart
|
||||
accessibilityLayer
|
||||
data={chartData}
|
||||
margin={{
|
||||
top: 20,
|
||||
}}
|
||||
>
|
||||
<CartesianGrid vertical={false} strokeDasharray="3 3" />
|
||||
<XAxis
|
||||
dataKey="abortReason"
|
||||
tickLine={false}
|
||||
tickMargin={10}
|
||||
axisLine={false}
|
||||
tickFormatter={(value) => value}
|
||||
/>
|
||||
<YAxis tickFormatter={(value) => `${value}`} />
|
||||
<ChartTooltip cursor={false} content={<ChartTooltipContent hideLabel />} />
|
||||
<Bar dataKey="count" fill="hsl(var(--chart-1))" radius={8}>
|
||||
<LabelList
|
||||
position="top"
|
||||
offset={12}
|
||||
className="fill-foreground"
|
||||
fontSize={12}
|
||||
formatter={(value: number) => `${value}`}
|
||||
/>
|
||||
</Bar>
|
||||
</BarChart>
|
||||
</ChartContainer>
|
||||
</CardContent>
|
||||
</Card>
|
||||
);
|
||||
}
|
@ -1,66 +0,0 @@
|
||||
"use client";
|
||||
import { Bar, BarChart, CartesianGrid, LabelList, XAxis, YAxis } from "recharts";
|
||||
|
||||
import { Card, CardContent, CardDescription, CardHeader, CardTitle } from "@/components/ui/card";
|
||||
import { type ChartConfig, ChartContainer, ChartTooltip, ChartTooltipContent } from "@/components/ui/chart";
|
||||
import type { PrinterErrorRate } from "@/utils/analytics/error-rate";
|
||||
|
||||
export const description = "Ein Säulendiagramm zur Darstellung der Fehlerrate";
|
||||
|
||||
interface PrinterErrorRateChartProps {
|
||||
printerErrorRate: PrinterErrorRate[];
|
||||
}
|
||||
|
||||
const chartConfig = {
|
||||
errorRate: {
|
||||
label: "Fehlerrate",
|
||||
},
|
||||
} satisfies ChartConfig;
|
||||
|
||||
export function PrinterErrorRateChart({ printerErrorRate }: PrinterErrorRateChartProps) {
|
||||
// Transform data to fit the chart structure
|
||||
const chartData = printerErrorRate.map((printer) => ({
|
||||
printer: printer.name,
|
||||
errorRate: printer.errorRate,
|
||||
}));
|
||||
|
||||
return (
|
||||
<Card>
|
||||
<CardHeader>
|
||||
<CardTitle>Fehlerrate</CardTitle>
|
||||
<CardDescription>Fehlerrate der Drucker in Prozent</CardDescription>
|
||||
</CardHeader>
|
||||
<CardContent>
|
||||
<ChartContainer config={chartConfig}>
|
||||
<BarChart
|
||||
accessibilityLayer
|
||||
data={chartData}
|
||||
margin={{
|
||||
top: 20,
|
||||
}}
|
||||
>
|
||||
<CartesianGrid vertical={false} strokeDasharray="3 3" />
|
||||
<XAxis
|
||||
dataKey="printer"
|
||||
tickLine={false}
|
||||
tickMargin={10}
|
||||
axisLine={false}
|
||||
tickFormatter={(value) => value}
|
||||
/>
|
||||
<YAxis tickFormatter={(value) => `${value}%`} />
|
||||
<ChartTooltip cursor={false} content={<ChartTooltipContent hideLabel />} />
|
||||
<Bar dataKey="errorRate" fill="hsl(var(--chart-1))" radius={8}>
|
||||
<LabelList
|
||||
position="top"
|
||||
offset={12}
|
||||
className="fill-foreground"
|
||||
fontSize={12}
|
||||
formatter={(value: number) => `${value}%`}
|
||||
/>
|
||||
</Bar>
|
||||
</BarChart>
|
||||
</ChartContainer>
|
||||
</CardContent>
|
||||
</Card>
|
||||
);
|
||||
}
|
@ -1,83 +0,0 @@
|
||||
"use client";
|
||||
|
||||
import { Card, CardContent, CardFooter, CardHeader, CardTitle } from "@/components/ui/card";
|
||||
import { type ChartConfig, ChartContainer, ChartTooltip, ChartTooltipContent } from "@/components/ui/chart";
|
||||
import { Area, AreaChart, CartesianGrid, XAxis, YAxis } from "recharts";
|
||||
|
||||
export const description = "Ein Bereichsdiagramm zur Darstellung der prognostizierten Nutzung pro Wochentag";
|
||||
|
||||
interface ForecastData {
|
||||
day: number; // 0 for Sunday, 1 for Monday, ..., 6 for Saturday
|
||||
usageMinutes: number;
|
||||
}
|
||||
|
||||
interface ForecastChartProps {
|
||||
forecastData: ForecastData[];
|
||||
}
|
||||
|
||||
const chartConfig = {
|
||||
usage: {
|
||||
label: "Prognostizierte Nutzung",
|
||||
color: "hsl(var(--chart-1))",
|
||||
},
|
||||
} satisfies ChartConfig;
|
||||
|
||||
const daysOfWeek = ["Sonntag", "Montag", "Dienstag", "Mittwoch", "Donnerstag", "Freitag", "Samstag"];
|
||||
|
||||
export function ForecastPrinterUsageChart({ forecastData }: ForecastChartProps) {
|
||||
// Transform and slice data to fit the chart structure
|
||||
const chartData = forecastData.map((data) => ({
|
||||
//slice(1, forecastData.length - 1).
|
||||
day: daysOfWeek[data.day], // Map day number to weekday name
|
||||
usage: data.usageMinutes,
|
||||
}));
|
||||
|
||||
return (
|
||||
<Card>
|
||||
<CardHeader>
|
||||
<CardTitle>Prognostizierte Nutzung pro Wochentag</CardTitle>
|
||||
</CardHeader>
|
||||
<CardContent>
|
||||
<ChartContainer className="h-64 w-full" config={chartConfig}>
|
||||
<AreaChart accessibilityLayer data={chartData} margin={{ left: 12, right: 12, top: 12 }}>
|
||||
<CartesianGrid vertical={true} />
|
||||
<XAxis dataKey="day" type="category" tickLine={true} tickMargin={10} axisLine={false} />
|
||||
<YAxis type="number" dataKey="usage" tickLine={false} tickMargin={10} axisLine={false} />
|
||||
<ChartTooltip cursor={false} content={<ChartTooltipContent hideLabel />} />
|
||||
<Area
|
||||
dataKey="usage"
|
||||
type="step"
|
||||
fill="hsl(var(--chart-1))"
|
||||
fillOpacity={0.4}
|
||||
stroke="hsl(var(--chart-1))"
|
||||
/>
|
||||
</AreaChart>
|
||||
</ChartContainer>
|
||||
</CardContent>
|
||||
<CardFooter className="flex-col items-start gap-2 text-sm">
|
||||
<div className="flex items-center gap-2 font-medium leading-none">
|
||||
Zeigt die prognostizierte Nutzungszeit pro Wochentag in Minuten.
|
||||
</div>
|
||||
<div className="leading-none text-muted-foreground">
|
||||
Besten Tage zur Wartung: {bestMaintenanceDays(forecastData)}
|
||||
</div>
|
||||
</CardFooter>
|
||||
</Card>
|
||||
);
|
||||
}
|
||||
|
||||
function bestMaintenanceDays(forecastData: ForecastData[]) {
|
||||
const sortedData = forecastData.map((a) => a).sort((a, b) => a.usageMinutes - b.usageMinutes); // Sort ascending
|
||||
|
||||
const q1Index = Math.floor(sortedData.length * 0.33);
|
||||
const q1 = sortedData[q1Index].usageMinutes; // First quartile (Q1) value
|
||||
|
||||
const filteredData = sortedData.filter((data) => data.usageMinutes <= q1);
|
||||
|
||||
return filteredData
|
||||
.map((data) => {
|
||||
const days = ["Sonntag", "Montag", "Dienstag", "Mittwoch", "Donnerstag", "Freitag", "Samstag"];
|
||||
return days[data.day];
|
||||
})
|
||||
.join(", ");
|
||||
}
|
@ -1,80 +0,0 @@
|
||||
"use client";
|
||||
|
||||
import { TrendingUp } from "lucide-react";
|
||||
import * as React from "react";
|
||||
import { Label, Pie, PieChart } from "recharts";
|
||||
|
||||
import { Card, CardContent, CardDescription, CardFooter, CardHeader, CardTitle } from "@/components/ui/card";
|
||||
import { type ChartConfig, ChartContainer, ChartTooltip, ChartTooltipContent } from "@/components/ui/chart";
|
||||
|
||||
export const description = "Nutzung des Druckers";
|
||||
|
||||
interface ComponentProps {
|
||||
data: {
|
||||
printerId: string;
|
||||
utilizationPercentage: number;
|
||||
name: string;
|
||||
};
|
||||
}
|
||||
|
||||
const chartConfig = {} satisfies ChartConfig;
|
||||
|
||||
export function PrinterUtilizationChart({ data }: ComponentProps) {
|
||||
const totalUtilization = React.useMemo(() => data.utilizationPercentage, [data]);
|
||||
const dataWithColor = {
|
||||
...data,
|
||||
fill: "rgb(34 197 94)",
|
||||
};
|
||||
const free = {
|
||||
printerId: "-",
|
||||
utilizationPercentage: 1 - data.utilizationPercentage,
|
||||
name: "(Frei)",
|
||||
fill: "rgb(212 212 212)",
|
||||
};
|
||||
|
||||
return (
|
||||
<Card className="flex flex-col">
|
||||
<CardHeader className="items-center pb-0">
|
||||
<CardTitle>{data.name}</CardTitle>
|
||||
<CardDescription>Nutzung des ausgewählten Druckers</CardDescription>
|
||||
</CardHeader>
|
||||
<CardContent className="flex-1 pb-0">
|
||||
<ChartContainer config={chartConfig} className="mx-auto aspect-square max-h-[250px]">
|
||||
<PieChart>
|
||||
<ChartTooltip cursor={false} content={<ChartTooltipContent hideLabel />} />
|
||||
<Pie
|
||||
data={[dataWithColor, free]}
|
||||
dataKey="utilizationPercentage"
|
||||
nameKey="name"
|
||||
innerRadius={60}
|
||||
strokeWidth={5}
|
||||
>
|
||||
<Label
|
||||
content={({ viewBox }) => {
|
||||
if (viewBox && "cx" in viewBox && "cy" in viewBox) {
|
||||
return (
|
||||
<text x={viewBox.cx} y={viewBox.cy} textAnchor="middle" dominantBaseline="middle">
|
||||
<tspan x={viewBox.cx} y={viewBox.cy} className="fill-foreground text-3xl font-bold">
|
||||
{(totalUtilization * 100).toFixed(2)}%
|
||||
</tspan>
|
||||
<tspan x={viewBox.cx} y={(viewBox.cy || 0) + 24} className="fill-muted-foreground">
|
||||
Gesamt-Nutzung
|
||||
</tspan>
|
||||
</text>
|
||||
);
|
||||
}
|
||||
}}
|
||||
/>
|
||||
</Pie>
|
||||
</PieChart>
|
||||
</ChartContainer>
|
||||
</CardContent>
|
||||
<CardFooter className="flex-col gap-2 text-sm">
|
||||
<div className="flex items-center gap-2 font-medium leading-none">
|
||||
Übersicht der Nutzung <TrendingUp className="h-4 w-4" />
|
||||
</div>
|
||||
<div className="leading-none text-muted-foreground">Aktuelle Auslastung des Druckers</div>
|
||||
</CardFooter>
|
||||
</Card>
|
||||
);
|
||||
}
|
@ -1,69 +0,0 @@
|
||||
"use client";
|
||||
import { Bar, BarChart, CartesianGrid, LabelList, XAxis } from "recharts";
|
||||
|
||||
import { Card, CardContent, CardDescription, CardFooter, CardHeader, CardTitle } from "@/components/ui/card";
|
||||
import { type ChartConfig, ChartContainer, ChartTooltip, ChartTooltipContent } from "@/components/ui/chart";
|
||||
|
||||
export const description = "Ein Balkendiagramm mit Beschriftung";
|
||||
|
||||
interface PrintVolumes {
|
||||
today: number;
|
||||
thisWeek: number;
|
||||
thisMonth: number;
|
||||
}
|
||||
|
||||
const chartConfig = {
|
||||
volume: {
|
||||
label: "Volumen",
|
||||
},
|
||||
} satisfies ChartConfig;
|
||||
|
||||
interface PrinterVolumeChartProps {
|
||||
printerVolume: PrintVolumes;
|
||||
}
|
||||
|
||||
export function PrinterVolumeChart({ printerVolume }: PrinterVolumeChartProps) {
|
||||
const chartData = [
|
||||
{ period: "Heute", volume: printerVolume.today, color: "hsl(var(--chart-1))" },
|
||||
{ period: "Diese Woche", volume: printerVolume.thisWeek, color: "hsl(var(--chart-2))" },
|
||||
{ period: "Diesen Monat", volume: printerVolume.thisMonth, color: "hsl(var(--chart-3))" },
|
||||
];
|
||||
|
||||
return (
|
||||
<Card>
|
||||
<CardHeader>
|
||||
<CardTitle>Druckvolumen</CardTitle>
|
||||
<CardDescription>Vergleich: Heute, Diese Woche, Diesen Monat</CardDescription>
|
||||
</CardHeader>
|
||||
<CardContent>
|
||||
<ChartContainer className="h-64 w-full" config={chartConfig}>
|
||||
<BarChart
|
||||
accessibilityLayer
|
||||
data={chartData}
|
||||
margin={{
|
||||
top: 20,
|
||||
}}
|
||||
>
|
||||
<CartesianGrid vertical={false} />
|
||||
<XAxis
|
||||
dataKey="period"
|
||||
tickLine={false}
|
||||
tickMargin={10}
|
||||
axisLine={false}
|
||||
tickFormatter={(value) => value}
|
||||
/>
|
||||
<ChartTooltip cursor={false} content={<ChartTooltipContent hideLabel />} />
|
||||
<Bar dataKey="volume" fill="var(--color-volume)" radius={8}>
|
||||
<LabelList position="top" offset={12} className="fill-foreground" fontSize={12} />
|
||||
</Bar>
|
||||
</BarChart>
|
||||
</ChartContainer>
|
||||
</CardContent>
|
||||
<CardFooter className="flex-col items-start gap-2 text-sm">
|
||||
<div className="leading-none text-muted-foreground">
|
||||
Zeigt das Druckvolumen für heute, diese Woche und diesen Monat
|
||||
</div>
|
||||
</CardFooter>
|
||||
</Card>
|
||||
);
|
||||
}
|
@ -0,0 +1,24 @@
|
||||
"use client";
|
||||
|
||||
import { DonutChart, Legend } from "@tremor/react";
|
||||
|
||||
const dataFormatter = (number: number) => Intl.NumberFormat("de-DE").format(number).toString();
|
||||
|
||||
interface PrintJobsDonutProps {
|
||||
// biome-ignore lint/suspicious/noExplicitAny: temp. fix
|
||||
data: any[];
|
||||
}
|
||||
export function PrintJobsDonut(props: PrintJobsDonutProps) {
|
||||
const { data } = props;
|
||||
|
||||
return (
|
||||
<div className="flex gap-4">
|
||||
<DonutChart data={data} variant="donut" colors={["green", "red", "yellow"]} valueFormatter={dataFormatter} />
|
||||
<Legend
|
||||
categories={["Abgeschlossen", "Abgebrochen", "Ausstehend"]}
|
||||
colors={["green", "red", "yellow"]}
|
||||
className="max-w-xs"
|
||||
/>
|
||||
</div>
|
||||
);
|
||||
}
|
0
packages/reservation-platform/src/app/admin/jobs/page.tsx
Executable file → Normal file
0
packages/reservation-platform/src/app/admin/jobs/page.tsx
Executable file → Normal file
6
packages/reservation-platform/src/app/admin/layout.tsx
Executable file → Normal file
6
packages/reservation-platform/src/app/admin/layout.tsx
Executable file → Normal file
@ -1,20 +1,18 @@
|
||||
import { AdminSidebar } from "@/app/admin/admin-sidebar";
|
||||
import { validateRequest } from "@/server/auth";
|
||||
import { UserRole } from "@/server/auth/permissions";
|
||||
import { IS_NOT, guard } from "@/utils/guard";
|
||||
import { guard, is_not } from "@/utils/heimdall";
|
||||
import { redirect } from "next/navigation";
|
||||
|
||||
interface AdminLayoutProps {
|
||||
children: React.ReactNode;
|
||||
}
|
||||
|
||||
export const dynamic = "force-dynamic";
|
||||
|
||||
export default async function AdminLayout(props: AdminLayoutProps) {
|
||||
const { children } = props;
|
||||
const { user } = await validateRequest();
|
||||
|
||||
if (guard(user, IS_NOT, UserRole.ADMIN)) {
|
||||
if (guard(user, is_not, UserRole.ADMIN)) {
|
||||
redirect("/");
|
||||
}
|
||||
|
||||
|
175
packages/reservation-platform/src/app/admin/page.tsx
Executable file → Normal file
175
packages/reservation-platform/src/app/admin/page.tsx
Executable file → Normal file
@ -1,17 +1,10 @@
|
||||
import { AbortReasonCountChart } from "@/app/admin/charts/printer-error-chart";
|
||||
import { PrinterErrorRateChart } from "@/app/admin/charts/printer-error-rate";
|
||||
import { ForecastPrinterUsageChart } from "@/app/admin/charts/printer-forecast";
|
||||
import { PrinterUtilizationChart } from "@/app/admin/charts/printer-utilization";
|
||||
import { PrinterVolumeChart } from "@/app/admin/charts/printer-volume";
|
||||
import { AbortReasonsBarChart } from "@/app/admin/charts/abort-reasons";
|
||||
import { LoadFactorChart } from "@/app/admin/charts/load-factor";
|
||||
import { PrintJobsDonut } from "@/app/admin/charts/printjobs-donut";
|
||||
import { DataCard } from "@/components/data-card";
|
||||
import { Card, CardContent, CardDescription, CardHeader, CardTitle } from "@/components/ui/card";
|
||||
import { Tabs, TabsContent, TabsList, TabsTrigger } from "@/components/ui/tabs";
|
||||
import { db } from "@/server/db";
|
||||
import { calculatePrinterErrorRate } from "@/utils/analytics/error-rate";
|
||||
import { calculateAbortReasonsCount } from "@/utils/analytics/errors";
|
||||
import { forecastPrinterUsage } from "@/utils/analytics/forecast";
|
||||
import { calculatePrinterUtilization } from "@/utils/analytics/utilization";
|
||||
import { calculatePrintVolumes } from "@/utils/analytics/volume";
|
||||
import type { Metadata } from "next";
|
||||
|
||||
export const metadata: Metadata = {
|
||||
@ -21,100 +14,114 @@ export const metadata: Metadata = {
|
||||
export const dynamic = "force-dynamic";
|
||||
|
||||
export default async function AdminPage() {
|
||||
const currentDate = new Date();
|
||||
|
||||
const lastMonth = new Date();
|
||||
lastMonth.setDate(currentDate.getDate() - 31);
|
||||
const printers = await db.query.printers.findMany({});
|
||||
const printJobs = await db.query.printJobs.findMany({
|
||||
where: (job, { gte }) => gte(job.startAt, lastMonth),
|
||||
const allPrintJobs = await db.query.printJobs.findMany({
|
||||
with: {
|
||||
printer: true,
|
||||
},
|
||||
});
|
||||
if (printJobs.length < 1) {
|
||||
return (
|
||||
<Card className="w-full">
|
||||
<CardHeader>
|
||||
<CardTitle>Druckaufträge</CardTitle>
|
||||
<CardDescription>Zurzeit sind keine Druckaufträge verfügbar.</CardDescription>
|
||||
</CardHeader>
|
||||
<CardContent>
|
||||
<p>Aktualisieren Sie die Seite oder prüfen Sie später erneut, ob neue Druckaufträge verfügbar sind.</p>
|
||||
</CardContent>
|
||||
</Card>
|
||||
);
|
||||
}
|
||||
|
||||
const currentPrintJobs = printJobs.filter((job) => {
|
||||
const totalAmountOfPrintJobs = allPrintJobs.length;
|
||||
|
||||
const now = new Date();
|
||||
const completedPrintJobs = allPrintJobs.filter((job) => {
|
||||
if (job.aborted) return false;
|
||||
const endAt = new Date(job.startAt).getTime() + job.durationInMinutes * 1000 * 60;
|
||||
return endAt < now.getTime();
|
||||
}).length;
|
||||
const abortedPrintJobs = allPrintJobs.filter((job) => job.aborted).length;
|
||||
const pendingPrintJobs = totalAmountOfPrintJobs - completedPrintJobs - abortedPrintJobs;
|
||||
|
||||
const endAt = job.startAt.getTime() + job.durationInMinutes * 1000 * 60;
|
||||
const abortedPrintJobsReasons = Object.entries(
|
||||
allPrintJobs.reduce((accumulator: Record<string, number>, job) => {
|
||||
if (job.aborted && job.abortReason) {
|
||||
if (!accumulator[job.abortReason]) {
|
||||
accumulator[job.abortReason] = 1;
|
||||
} else {
|
||||
accumulator[job.abortReason]++;
|
||||
}
|
||||
}
|
||||
return accumulator;
|
||||
}, {}),
|
||||
).map(([name, count]) => ({ name, Anzahl: count }));
|
||||
|
||||
return endAt > currentDate.getTime();
|
||||
const mostAbortedPrinter = allPrintJobs.reduce((prev, current) => (prev.aborted > current.aborted ? prev : current));
|
||||
|
||||
const mostUsedPrinter = allPrintJobs.reduce((prev, current) =>
|
||||
prev.durationInMinutes > current.durationInMinutes ? prev : current,
|
||||
);
|
||||
|
||||
const allPrinters = await db.query.printers.findMany();
|
||||
|
||||
const freePrinters = allPrinters.filter((printer) => {
|
||||
const jobs = allPrintJobs.filter((job) => job.printerId === printer.id);
|
||||
const now = new Date();
|
||||
const inUse = jobs.some((job) => {
|
||||
const endAt = new Date(job.startAt).getTime() + job.durationInMinutes * 1000 * 60;
|
||||
return endAt > now.getTime();
|
||||
});
|
||||
return !inUse;
|
||||
});
|
||||
const occupiedPrinters = currentPrintJobs.map((job) => job.printer.id);
|
||||
const freePrinters = printers.filter((printer) => !occupiedPrinters.includes(printer.id));
|
||||
const printerUtilization = calculatePrinterUtilization(printJobs);
|
||||
const printerVolume = calculatePrintVolumes(printJobs);
|
||||
const printerAbortReasons = calculateAbortReasonsCount(printJobs);
|
||||
const printerErrorRate = calculatePrinterErrorRate(printJobs);
|
||||
const printerForecast = forecastPrinterUsage(printJobs);
|
||||
|
||||
return (
|
||||
<>
|
||||
<Tabs defaultValue={"@general"} className="flex flex-col gap-4 items-start">
|
||||
<TabsList className="bg-neutral-100 w-full py-6">
|
||||
<TabsTrigger value="@general">Allgemein</TabsTrigger>
|
||||
<TabsTrigger value="@capacity">Druckerauslastung</TabsTrigger>
|
||||
<TabsTrigger value="@report">Fehlerberichte</TabsTrigger>
|
||||
<TabsTrigger value="@forecasts">Prognosen</TabsTrigger>
|
||||
{allPrinters.map((printer) => (
|
||||
<TabsTrigger key={printer.id} value={printer.id}>
|
||||
{printer.name}
|
||||
</TabsTrigger>
|
||||
))}
|
||||
</TabsList>
|
||||
<TabsContent value="@general" className="w-full">
|
||||
<div className="flex flex-col lg:grid lg:grid-cols-2 gap-4">
|
||||
<div className="w-full col-span-2">
|
||||
<DataCard
|
||||
title="Aktuelle Auslastung"
|
||||
value={`${Math.round((occupiedPrinters.length / (freePrinters.length + occupiedPrinters.length)) * 100)}%`}
|
||||
icon={"Percent"}
|
||||
/>
|
||||
</div>
|
||||
<DataCard title="Aktive Drucker" value={occupiedPrinters.length} icon={"Rotate3d"} />
|
||||
<DataCard title="Freie Drucker" value={freePrinters.length} icon={"PowerOff"} />
|
||||
</div>
|
||||
</TabsContent>
|
||||
<TabsContent value="@capacity" className="w-full">
|
||||
<div className="flex flex-col lg:grid lg:grid-cols-2 gap-4">
|
||||
<div className="w-full col-span-2">
|
||||
<PrinterVolumeChart printerVolume={printerVolume} />
|
||||
</div>
|
||||
{printerUtilization.map((data) => (
|
||||
<PrinterUtilizationChart key={data.printerId} data={data} />
|
||||
))}
|
||||
</div>
|
||||
</TabsContent>
|
||||
<TabsContent value="@report" className="w-full">
|
||||
<div className="flex flex-col lg:grid lg:grid-cols-2 gap-4">
|
||||
<div className="w-full col-span-2">
|
||||
<PrinterErrorRateChart printerErrorRate={printerErrorRate} />
|
||||
</div>
|
||||
<div className="w-full col-span-2">
|
||||
<AbortReasonCountChart abortReasonCount={printerAbortReasons} />
|
||||
</div>
|
||||
</div>
|
||||
</TabsContent>
|
||||
<TabsContent value="@forecasts" className="w-full">
|
||||
<div className="flex flex-col lg:grid lg:grid-cols-2 gap-4">
|
||||
<div className="w-full col-span-2">
|
||||
<ForecastPrinterUsageChart
|
||||
forecastData={printerForecast.map((usageMinutes, index) => ({
|
||||
day: index,
|
||||
usageMinutes,
|
||||
}))}
|
||||
/>
|
||||
</div>
|
||||
<DataCard title="Drucker mit meisten Reservierungen" value={mostUsedPrinter.printer.name} icon="Printer" />
|
||||
<DataCard title="Drucker mit meisten Abbrüchen" value={mostAbortedPrinter.printer.name} icon="Printer" />
|
||||
<Card className="w-full">
|
||||
<CardHeader>
|
||||
<CardTitle>Druckaufträge</CardTitle>
|
||||
<CardDescription>nach Status</CardDescription>
|
||||
</CardHeader>
|
||||
<CardContent>
|
||||
<PrintJobsDonut
|
||||
data={[
|
||||
{ name: "Abgeschlossen", value: completedPrintJobs },
|
||||
{ name: "Abgebrochen", value: abortedPrintJobs },
|
||||
{ name: "Ausstehend", value: pendingPrintJobs },
|
||||
]}
|
||||
/>
|
||||
</CardContent>
|
||||
</Card>
|
||||
<Card className="w-full ">
|
||||
<CardHeader>
|
||||
<CardTitle>
|
||||
Auslastung: <span>{((1 - freePrinters.length / allPrinters.length) * 100).toFixed(2)}%</span>
|
||||
</CardTitle>
|
||||
</CardHeader>
|
||||
<CardContent>
|
||||
<LoadFactorChart
|
||||
data={[
|
||||
{ name: "Frei", value: freePrinters.length },
|
||||
{ name: "Belegt", value: allPrinters.length - freePrinters.length },
|
||||
]}
|
||||
/>
|
||||
</CardContent>
|
||||
</Card>
|
||||
<Card className="w-full col-span-2">
|
||||
<CardHeader>
|
||||
<CardTitle>Abgebrochene Druckaufträge nach Abbruchgrund</CardTitle>
|
||||
</CardHeader>
|
||||
<CardContent>
|
||||
<AbortReasonsBarChart data={abortedPrintJobsReasons} />
|
||||
</CardContent>
|
||||
</Card>
|
||||
</div>
|
||||
</TabsContent>
|
||||
{allPrinters.map((printer) => (
|
||||
<TabsContent key={printer.id} value={printer.id}>
|
||||
{printer.description}
|
||||
</TabsContent>
|
||||
))}
|
||||
</Tabs>
|
||||
</>
|
||||
);
|
||||
|
0
packages/reservation-platform/src/app/admin/printers/columns.tsx
Executable file → Normal file
0
packages/reservation-platform/src/app/admin/printers/columns.tsx
Executable file → Normal file
0
packages/reservation-platform/src/app/admin/printers/data-table.tsx
Executable file → Normal file
0
packages/reservation-platform/src/app/admin/printers/data-table.tsx
Executable file → Normal file
0
packages/reservation-platform/src/app/admin/printers/dialogs/create-printer.tsx
Executable file → Normal file
0
packages/reservation-platform/src/app/admin/printers/dialogs/create-printer.tsx
Executable file → Normal file
8
packages/reservation-platform/src/app/admin/printers/dialogs/delete-printer.tsx
Executable file → Normal file
8
packages/reservation-platform/src/app/admin/printers/dialogs/delete-printer.tsx
Executable file → Normal file
@ -29,13 +29,7 @@ export function DeletePrinterDialog(props: DeletePrinterDialogProps) {
|
||||
description: "Drucker wird gelöscht...",
|
||||
});
|
||||
try {
|
||||
const result = await deletePrinter(printerId);
|
||||
if (result?.error) {
|
||||
toast({
|
||||
description: result.error,
|
||||
variant: "destructive",
|
||||
});
|
||||
}
|
||||
await deletePrinter(printerId);
|
||||
toast({
|
||||
description: "Drucker wurde gelöscht.",
|
||||
});
|
||||
|
0
packages/reservation-platform/src/app/admin/printers/dialogs/edit-printer.tsx
Executable file → Normal file
0
packages/reservation-platform/src/app/admin/printers/dialogs/edit-printer.tsx
Executable file → Normal file
16
packages/reservation-platform/src/app/admin/printers/form.tsx
Executable file → Normal file
16
packages/reservation-platform/src/app/admin/printers/form.tsx
Executable file → Normal file
@ -57,17 +57,11 @@ export function PrinterForm(props: PrinterFormProps) {
|
||||
|
||||
// Update
|
||||
try {
|
||||
const result = await updatePrinter(printer.id, {
|
||||
await updatePrinter(printer.id, {
|
||||
description: values.description,
|
||||
name: values.name,
|
||||
status: values.status,
|
||||
});
|
||||
if (result?.error) {
|
||||
toast({
|
||||
description: result.error,
|
||||
variant: "destructive",
|
||||
});
|
||||
}
|
||||
|
||||
setOpen(false);
|
||||
|
||||
@ -96,17 +90,11 @@ export function PrinterForm(props: PrinterFormProps) {
|
||||
|
||||
// Create
|
||||
try {
|
||||
const result = await createPrinter({
|
||||
await createPrinter({
|
||||
description: values.description,
|
||||
name: values.name,
|
||||
status: values.status,
|
||||
});
|
||||
if (result?.error) {
|
||||
toast({
|
||||
description: result.error,
|
||||
variant: "destructive",
|
||||
});
|
||||
}
|
||||
|
||||
setOpen(false);
|
||||
|
||||
|
0
packages/reservation-platform/src/app/admin/printers/page.tsx
Executable file → Normal file
0
packages/reservation-platform/src/app/admin/printers/page.tsx
Executable file → Normal file
2
packages/reservation-platform/src/app/admin/settings/download/route.ts
Executable file → Normal file
2
packages/reservation-platform/src/app/admin/settings/download/route.ts
Executable file → Normal file
@ -1,7 +1,5 @@
|
||||
import fs from "node:fs";
|
||||
|
||||
export const dynamic = 'force-dynamic';
|
||||
|
||||
export async function GET() {
|
||||
return new Response(fs.readFileSync("./db/sqlite.db"));
|
||||
}
|
||||
|
Some files were not shown because too many files have changed in this diff Show More
Loading…
x
Reference in New Issue
Block a user