Machine learning

Modelle, gebaut auf Ihrem Wissen

Wenn generische LLMs nicht reichen, übernimmt maßgeschneidertes Machine Learning. Wir trainieren Prognose-, Klassifikations- und Visionsmodelle auf Ihren Daten, bringen sie in Produktion und halten sie langfristig gesund — mit voller Governance.

8-14 Wo.

Vom ersten Datensatz zum produktiven Modell mit aktivem Monitoring

95%+

Typische Genauigkeit bei Dokumenten- und Bildklassifikation

24/7

Vorhersage-Observability mit automatischen Alerts bei Drift und Degradation

Wann ein eigens gebautes Modell wirklich nötig ist

Fertige Modelle sind hervorragend im Sprechen, Schreiben und Zusammenfassen. Aber wenn das Problem sehr spezifisch ist — Nachfrage für eine SKU vorhersagen, Defekte an der Produktionslinie erkennen, Betrug aufspüren oder das passende Produkt empfehlen — braucht es ein Modell, das auf Ihren Daten trainiert wurde. Genau das macht unser ML-Team jeden Tag.

Wir starten bei Ihren Daten, nicht bei den Modellen

Vor jedem Training bewerten wir Qualität, Volumen und Repräsentativität der Daten. Bei Bedarf reichern wir sie an, labeln KI-gestützt und bauen eine robuste Datenpipeline.

MLOps serienmäßig, nicht als Luxus

Jedes Modell kommt mit Versionierung, automatisierten Evals, Canary Release, Rollback und Operations-Dashboards. Keine Black-Box-Modelle, die keiner mehr updaten kann.

Privat, Cloud oder on-premise

Wenn Ihre Daten Ihr Haus nicht verlassen dürfen, trainieren und betreiben wir die Modelle on-premise. Ansonsten nutzen wir Managed-GPUs auf AWS, Azure oder GCP — Ihre Wahl.

Live snippet

Nächtliches Retraining mit Drift-Erkennung

Ein kleiner Scheduler prüft nachts den Daten-Drift, entscheidet über ein Retraining und registriert eine neue, nachvollziehbare Version.

python@lbd studio/ai.snippet

                

Modellfamilien, die wir bauen

Wir wählen die richtige Technik für das Problem, ohne Dogma. Oft schlägt eine Modellkombination das beste Einzelmodell.

Forecasting

Nachfrage, Absatz, Verbrauch

Time-Series-Modelle (Prophet, N-BEATS, temporale Transformer) für Produktionsplanung, Lager, Energie, Schichten und Cashflow mit deklarierten Fehlermargen.

  • Multi-Horizont- und probabilistische Prognosen
  • Saisonalität, Feiertage und Kampagnen
  • Rigoroses Backtesting und Produktionsmonitoring
Klassifikation

Dokumente, Transaktionen, Intents

Wir routen Rechnungen, E-Mails, Tickets und Transaktionen in Geschäftskategorien mit Custom-Modellen oder feingetunten pretrained Encodern.

  • Document AI für Rechnungen, Verträge, Lieferscheine
  • Betrugs- und AML-Erkennung
  • Intent Detection für Bots und automatisches Routing
Computer Vision

Qualität, OCR, Erkennung

Wir trainieren Visionsmodelle für Inline-Qualitätskontrolle, Handschrift-Erkennung, Objekttracking und visuelle Compliance.

  • Object Detection (YOLO, DETR) und Segmentierung
  • Layout-bewusstes OCR und Extraktion
  • Edge-Deployment auf Kameras und Industrieterminals
Empfehlung

Produkte, Inhalte, Angebote

Hybride Empfehlungssysteme (kollaborativ + Content + Kontext) für Conversion, Retention oder Marge — nicht nur Klicks.

  • Two-Tower- und Sequenzmodelle
  • Eingebettete A/B-Tests und kontextuelle Bandits
  • Cold-Start-Schutz und Katalogverwaltung
Anomalieerkennung

Wartung, Betrug, Sicherheit

Unüberwachte und halbüberwachte Modelle melden Abweichungen in Echtzeit auf Sensor-, Log- oder Transaktionsdaten.

  • Predictive Maintenance für Industrieanlagen
  • Betrugserkennung für Zahlungen und Zugänge
  • Dynamische Schwellenwerte und Alerts
Strukturiertes NLP

Extraktion, Entity Linking, Sentiment

Wenn deterministische Textantworten gefragt sind — statt freier Generierung — bauen wir klassische NLP-Pipelines mit vorhersehbarer Performance und niedrigen Kosten.

  • Custom Named Entity Recognition
  • Relation Extraction und Knowledge Graphs
  • Sentiment- und Aspect-Mining für Voice of Customer

Unsere ML-Methode

Wir eliminieren das Risiko, am Ende ein interessantes Modell zu haben, das niemand nutzen kann.

01

1. Data Discovery & Feasibility

Wir prüfen vorhandene Daten, quantifizieren Signal und Rauschen, definieren die Business-Metrik und entscheiden, ob ML das richtige Werkzeug ist — oder ob ein einfacherer Ansatz gewinnt.

Ergebnis: versionierter Datensatz, Feasibility Score, statistische Baseline, gemeinsame Erfolgsmetrik.

02

2. Offline-Prototyp

Wir bauen mehrere Baselines und vergleichen sie mit modernen Techniken. Gemeinsam wählen wir den aussichtsreichsten Ansatz, gemessen an Genauigkeit plus Kosten und Latenz.

Ergebnis: reproduzierbare Notebooks, Model Card, Bericht zu Bias und Grenzen, Empfehlung.

03

3. Produktion und MLOps

Wir verpacken das Modell als robusten Service, deployen mit Canary Release, monitoren Drift und Retraining. Anschließend übergeben wir die Schlüssel — oder betreiben es mit SLA für Sie.

Ergebnis: Live-Service, Modell-CI/CD, Monitoring-Dashboard, Retraining-Plan.

Technologie-Stack

Wir wählen Stacks, die Sie an keinen einzelnen Anbieter binden und Ihre IT-Vorgaben respektieren.

ML-Frameworks

PyTorch, TensorFlow, scikit-learn, XGBoost, LightGBM, JAX

MLOps

MLflow, Weights & Biases, DVC, Feast, Kubeflow, Vertex AI Pipelines

Serving

TorchServe, Triton, BentoML, SageMaker, Azure ML, KServe

Observability

Evidently AI, Arize, Fiddler, Custom Grafana-Dashboards

Daten

Snowflake, BigQuery, Databricks, Airflow, dbt, Kafka

Infrastruktur

AWS SageMaker, Azure ML, GCP Vertex AI, on-premise GPUs, Kubernetes

Sie haben Daten? Sehen wir, was sie vorhersagen können

Ein kostenloser Termin mit einem unserer ML-Engineers, um zu prüfen, ob Ihr Datensatz reif ist und welche Modelle wirklich Unterschied machen.

Häufig gestellte Fragen

Fragen zu maßgeschneidertem Machine Learning

Wann ein auf Ihre Daten trainiertes Vorhersagemodell nötig ist und wie wir es in Produktion bringen.

Welche Probleme löst maßgeschneidertes Machine Learning?
Alle, bei denen klassische Regeln zu starr und LLMs zu generisch sind: Nachfrage- und Absatzprognosen, Energieprognosen, Dokument- und Transaktionsklassifikation, Bildqualitätskontrolle, Produktempfehlungen, Betrugsprävention und Predictive Maintenance.
Wie viele Daten braucht ein Modell zum Training?
Kommt auf die Komplexität an. Zur Dokumentenklassifikation reichen oft 2.000-10.000 gelabelte Beispiele. Für Forecasting genügen 2-3 Jahre Historie. Bei knappen Daten nutzen wir Transfer Learning aus pretrained Modellen und Data Augmentation. Im Initial-Audit sagen wir klar, ob die Daten reichen — bevor Sie investieren.
Welche Frameworks und Clouds nutzt ihr?
PyTorch, TensorFlow, scikit-learn, XGBoost, LightGBM. MLflow und Weights & Biases für Tracking. Training auf AWS SageMaker, Azure ML, GCP Vertex AI oder on-premise GPUs. Serving über TorchServe, Triton, BentoML oder KServe auf Kubernetes.
Wie verhindert ihr, dass ein Modell im Laufe der Zeit degradiert?
Mit MLOps. Jedes Modell bringt Drift-Monitoring auf Inputs und Predictions, automatische Qualitätsschwellen, zeit- oder drift-getriggertes Retraining und automatisches Rollback bei Metrikverschlechterung.
Wer wartet das Modell nach dem Release?
Sie mit unserer Unterstützung oder wir per SLA. Wir liefern stets Model Cards, Betriebsdokumentation und Retraining-Runbooks — ein Übergabe ist jederzeit möglich.