SME & Prototyping

Smart Stack

Die "AI-in-a-Box" Lösung. Maximale Einfachheit, null Lizenzkosten und vollständige Datensouveränität. The "AI-in-a-Box" solution. Maximum simplicity, zero license costs, and complete data sovereignty.

0€ Lizenzkosten

100% Open Source Software.

100% On-Premise

Daten bleiben lokal.

15min Setup Time

Dockerized Deployment.

Risikofrei starten Start Risk-Free

Warum teure Software kaufen, wenn der Use Case noch nicht validiert ist? Der Smart Stack eliminiert das technische und finanzielle Risiko.

Wir nutzen etablierte Blueprints. Das bedeutet: Kein langes Konfigurieren, kein "Basteln". Wir liefern ein vorgefertigtes Docker-Image, das sofort auf Ihrem Server oder sogar einem starken Laptop läuft.

Das ist echte Souveränität: Wenn Sie das Projekt stoppen, entstehen keine laufenden Cloud-Kosten. Wenn Sie es skalieren, gehört die Technologie Ihnen.

Why buy expensive software before validating the use case? The Smart Stack eliminates technical and financial risks.

We use established blueprints. This means: No long configuration, no "tinkering". We deliver a pre-configured Docker image that runs immediately on your server or even a powerful laptop.

This is true sovereignty: If you stop the project, there are no ongoing cloud costs. If you scale it, you own the technology.

# One command to run your full AI stack
admin@server:~$ git clone methodic-ai/smart-stack
admin@server:~$ cd smart-stack
admin@server:~/smart-stack$ docker compose up -d

[+] Running 3/3
✔ Network ai-net Created
✔ Container ollama Started (Port 11434)
✔ Container open-webui Started (Port 3000)

admin@server:~/smart-stack$

Gekapselte Sicherheit Encapsulated Security

Der Smart Stack basiert auf dem Prinzip der minimalen Komplexität. Alle Komponenten laufen isoliert in Containern.

Das Herzstück ist Ollama, eine hocheffiziente Engine für lokale KI-Modelle (wie Llama 3 oder Mistral). Sie kommuniziert ausschließlich intern mit der Open WebUI, dem Interface für Ihre Mitarbeiter.

Es besteht keine Verbindung zum öffentlichen Internet notwendig. Ihre Dokumente werden lokal vektorisiert und verlassen niemals Ihren sicheren Bereich.

The Smart Stack is based on the principle of minimal complexity. All components run isolated in containers.

The core is Ollama, a highly efficient engine for local AI models (like Llama 3 or Mistral). It communicates exclusively internally with Open WebUI, the interface for your employees.

No connection to the public internet is necessary. Your documents are vectorized locally and never leave your secure perimeter.

DOCKER CONTAINER
Open WebUI
Chat Interface
Ollama
Inference Engine
HOST HARDWARE (GPU)