All systems operational · Sign in Book a demo →
// AI ENGINE · ML/KI

Vom Modell zur Produktion
in Minuten.

Industrielle KI ohne MLOps-Aufwand. Auf Ihren Daten trainieren, mit einem Klick an der Edge oder in der Cloud deployen. Kein Kubernetes. Kein Data-Science-Studium erforderlich.

// 01 · DEPLOYMENT-STANDARD

Ein Format, beliebige Runtime.

ONNX ist der offene Standard für den ML-Modellaustausch. In PyTorch, TensorFlow oder scikit-learn trainieren — einmal exportieren — überall ausführen: Edge-CPU, GPU, NPU oder Cloud.

PORTABEL

Framework-unabhängig. Von PyTorch zu ONNX Runtime wechseln, ohne Inferenzcode neu schreiben zu müssen.

OPTIMIERT

ONNX Runtime wendet hardwarespezifische Graph-Optimierungen an. Schnellere Inferenz, geringere Latenz an der Edge.

EDGE-READY

Läuft auf ARM-CPUs, Intel-NPUs, Nvidia-GPUs — sogar einem Raspberry Pi. Keine Cloud-Abhängigkeit für Inferenz.

OFFEN

Apache 2.0 lizenziert. Unterstützt von Microsoft, Meta, Google, AWS. Kein Vendor Lock-in.

// 02 · WERKZEUGE

Pattern Studio + AI Studio.

Pattern Studio

Eine Bibliothek vorgefertigter Vorhersagemuster, bereit für Ihre Datenpipeline.

  • Anomalieerkennung — unüberwachtes Baseline-Lernen
  • Restnutzungsdauer (RUL) — Regression auf Fehlerhistorie
  • Chemieprognose — virtueller Sensor für Laborwerte
  • Weicher Sensor — virtuelle Messung aus korrelierten Signalen
  • Golden Batch — Ähnlichkeitsbewertung gegen Referenzprofile
  • Prozessoptimierung — Multi-Variablen-Sollwertvorschlag
Pattern Studio — zoom-match detection
▶ Pattern Studio · zoom-match detection
Pattern Studio — detection preview
▶ Pattern Studio · preview + template editor

AI Studio IN ENTWICKLUNG

Drag-and-Drop-Modelldeployment. Muster auswählen, Trainingsdaten bereitstellen, Deployen klicken. Kein Kubernetes- oder MLOps-Wissen erforderlich.

  1. Vorhersagemuster aus der Bibliothek wählen
  2. Historische Daten aus DataLake verbinden
  3. Auto-ML trainiert und validiert auf Ihren Daten
  4. Ein-Klick-Deploy an Edge oder Cloud
  5. Ausgaben fließen als Auslöser in FlowMaker ein
// 03 · VORHERSAGEMUSTER

Sieben Muster für 90% der industriellen KI-Anforderungen.

Jedes Muster ist eine bewährte ML-Pipeline, vorkonfiguriert für Industriedaten. Wählen, Daten bereitstellen, deployen.

FORECASTING

Zeitreihen-Forecasting

Google TimesFM, vortrainiert auf 100+ Milliarden Datenpunkten. Zero-Shot-Forecasting auf jedem Tag — kein Training, kein Tuning. Erkennen Sie Ausreißer Minuten, Stunden oder Tage im Voraus.

ANOMALIE

Anomalieerkennung

Unüberwachter Auto-Encoder lernt normales Verhalten und löst Alarme aus, wenn Signale abweichen. Ab dem ersten Tag einsatzbereit.

RUL

Restnutzungsdauer

Regressionsmodell, trainiert auf der Fehlerhistorie Ihrer Anlage — sagt Zeit bis zum Ausfall in Stunden, Tagen oder Zyklen vorher.

WEICHER SENSOR

Weicher Sensor

Nicht messbare Variablen (Chemie, Qualität, Effizienz) aus korrelierten Sensordaten schätzen. Kostspielige Labormessungen ersetzen.

GOLDEN BATCH

Golden Batch

Jeden Produktionslauf gegen eine goldene Referenztrajektorie bewerten. Abweichungen früh erkennen, bevor sie zu Defekten werden.

OPTIMIERUNG

Prozessoptimierung

Multi-Variablen-Optimierer schlägt Sollwertänderungen vor, um Energie zu minimieren, Ausbeute zu maximieren oder Zielqualität zu erreichen.

VISION

Computer Vision

ONNX-basierte Vision-Modelle für Qualitätsprüfung, Sicherheitsüberwachung und Prozessvisualisierung — Tuyere-Kameras inklusive.

// 04 · KI-AGENTEN & MCP

Lassen Sie Ihren LLM mit der Anlage sprechen.

Industream integriert sich mit dem Model Context Protocol (MCP), damit jeder LLM Live-Anlagendaten abfragen, Berechnungen ausführen und Aktionen über typisierte Tools auslösen kann.

KONVERSATIONS-OPERATOR

"Wie ist der Temperaturtrend in Ofen 3 in den letzten 8 Stunden?" — Der LLM fragt DataBridge über MCP ab und antwortet in natürlicher Sprache.

AGENTISCHES ALERTING

LLM-Agent überwacht Anomalie-Scores und erstellt ein Wartungsticket mit Root-Cause-Kontext, bereit zur menschlichen Prüfung.

AUTOMATISIERTE WORKFLOWS

FlowMaker-Pipelines über MCP-Tools auslösen. Der Agent entscheidet wann und was basierend auf Live-Bedingungen ausgeführt wird.

// BRINGEN SIE IHR LLM MIT

MCP mit Ihrem LLM.

Industream stellt Anlagendaten und Aktionen als MCP-Tools bereit. Jedes MCP-kompatible LLM kann sich verbinden — Frontier oder souverän, Cloud oder On-Prem, hinter Ihrer Firewall. Ihre Daten verlassen Ihren Perimeter nur, wenn Sie es wollen.

Frontier · API
Claude (Anthropic)
GPT-4 / GPT-5 (OpenAI)
Gemini (Google)
Europäisch · souverän
Mistral Large
Mistral Codestral
Aleph Alpha Pharia
Open · selbst gehostet
Llama 3 / 4
Qwen, DeepSeek
via Ollama / vLLM / TGI
Industriell
Your fine-tuned
domain model
Local or on-prem
🔒 On-Prem-LLM + On-Prem-Industream = vollständig Air-Gap-agentische Operationen. Keine Daten verlassen das Werk.
// 05 · ARCHITEKTURINTEGRATION

AI Engine ist Teil der Plattform.

Kein nachträglicher Zusatz. AI Engine ist der optionale Compute-Zweig zwischen FlowMaker und DataLake. Deaktivieren wenn nur Rohspeicherung benötigt — aktivieren wenn Sie bereit sind vorherzusagen.

AI/ML Workers (hervorgehoben) ist der optionale Berechnungszweig — deaktivieren wenn nicht benötigt, aktivieren wenn Sie prognostizieren möchten.

Deployen Sie Ihr erstes Modell heute Nachmittag.

Daten in DataLake verbinden. Muster in Pattern Studio wählen. Deployen. Der gesamte Loop dauert unter 2 Stunden.

// ONNX · EDGE · CLOUD · AGENTS