Ein KI-Assistent für Ihre Dokumente

Antworten aus Ihren eigenen Dokumenten — mit Quellenangabe.

Statt mühsam in SharePoint, Dateiservern und Datenbanken zu suchen, stellen Ihre Mitarbeiter ihre Frage einfach im Chat. Der Assistent antwortet ausschließlich auf Basis Ihrer Dokumente und nennt jede Quelle.

01 — So funktioniert's

Der digitale Mitarbeiter mit fotografischem Gedächtnis.

Damit Sie das Produkt verstehen, hilft ein Vergleich aus dem Alltag. Stellen Sie sich einen neuen Kollegen vor — mit fotografischem Gedächtnis und Zugang zu allen Ihren Unterlagen. Genau das tut der Assistent, nur in Sekunden.

Der Mitarbeiter, den Sie sich immer gewünscht haben.

Er liest Ihre Dokumente — aus SharePoint, vom Dateiserver, aus Datenbanken — und merkt sich, was wo steht. Wenn Sie ihn etwas fragen, schaut er nach, fasst die relevanten Stellen zusammen und nennt Ihnen immer die genaue Quelle.

Er erfindet nichts. Er rät nichts. Er antwortet nur, was wirklich in Ihren Dokumenten steht — und sagt es Ihnen, falls er nichts findet.

Phase A — Vorbereitung

Er liest sich ein.

Bevor er Fragen beantworten kann, sichtet er alle Dokumente. Er macht sich kurze, sortierte Notizen und legt sie in einem durchsuchbaren Karteikasten ab — ein für allemal.

  • Verbindet sich mit Ihren Datenquellen (Fileserver, Alfresco, Email, Datenbanken, Sharepoint).
  • Liest jedes Dokument einmal und merkt sich die Inhalte.
  • Legt sich für jeden Abschnitt eine eigene Karteikarte an.
  • Wiederholt das automatisch, wenn neue Dokumente dazukommen.
Phase B — Im Einsatz

Er beantwortet Ihre Fragen.

Sie tippen Ihre Frage in den Chat. Der Assistent zieht blitzschnell die passenden Karteikarten aus seinem Gedächtnis, fasst die Inhalte verständlich zusammen und nennt Ihnen die Quelle.

  • Sie stellen Ihre Frage in normaler Sprache — kein spezielles Suchen.
  • Er findet die inhaltlich passenden Stellen, nicht nur Stichwort-Treffer.
  • Formuliert eine verständliche Antwort in vollständigen Sätzen.
  • Liefert immer Datei, Seite und Relevanz mit — volle Nachvollziehbarkeit.

Wann passiert was — und wie oft?

Phase A läuft einmal beim Aufsetzen, danach automatisch im Hintergrund (z. B. nachts) wenn Dokumente hinzukommen oder sich ändern. Phase B passiert bei jeder einzelnen Frage in Echtzeit, typischerweise in zwei Sekunden.

Technisch im Detail
02 — Hinter den Kulissen

Wie der Assistent technisch funktioniert.

Drei Bilder, kein Fachjargon-Dschungel. Erst die Vogelperspektive, dann beide Phasen einzeln — mit klarer Kennzeichnung, was lokal bei Ihnen läuft und wann ein externer EU-Dienst beteiligt ist. Begriffe wie Chunks oder Embeddings tauchen kurz auf und werden im nächsten Abschnitt im Glossar erklärt.

2.1

Vogelperspektive: zwei Phasen, ein Gedächtnis

Phase A baut ein Gedächtnis auf, Phase B nutzt es. Beide teilen sich dieselbe Datenbank. Die Phasen laufen unabhängig voneinander — mit unterschiedlicher Häufigkeit.

Übersicht
PHASE A — VORBEREITUNG Einmalig + automatisch bei neuen oder geänderten Dokumenten Dokumente sammeln SharePoint, Fileserver, DBs In Abschnitte zerlegen "Chunks" — eine Karteikarte je Abschnitt Bedeutung erfassen Embedding-Dienst SCALEWAY DAS GEMEINSAME GEDÄCHTNIS Vektordatenbank durchsuchbar nach Inhalt & Bedeutung DASSELBE GEDÄCHTNIS WIRD UNTEN GENUTZT PHASE B — IM EINSATZ Bei jeder einzelnen Frage in Echtzeit (≈2 Sek.) Frage stellen Über den Chat in Alltagssprache Passende Stellen finden Im Gedächtnis nachschlagen liest aus Gedächtnis Antwort formulieren Sprachmodell (LLM) SCALEWAY Antwort + Quellen anzeigen Datei, Seite, Relevanz Lokal — Ihre Infrastruktur Externer EU-Dienst — DSGVO-konform via API Datenfluss
2.2

Phase A: Ihre Dokumente werden vorbereitet

Im Hintergrund
1

Datenquellen verbinden

SharePoint, Fileserver, Datenbanken — Anbindung an die Orte, an denen Ihre Dokumente liegen.

Lokal · Ihre Infrastruktur
2

Dateien herunterladen

Dokumente werden zur Verarbeitung geladen, samt Metadaten (Dateiname, Pfad, Datum).

Lokal · Temporär
3

In Chunks zerlegen

Der Text wird in handliche Abschnitte aufgeteilt — je 1–2 Absätze, mit Überschrift und Seitenzahl.

Lokal · Docling
4

Bedeutung erfassen

Der Embedding-Dienst übersetzt jeden Chunk in eine Zahlenfolge, die seine Bedeutung beschreibt.

EU-Dienst · Scaleway
5

Im Gedächtnis ablegen

Alle Chunks landen samt Bedeutungs-Signatur in der Vektordatenbank — bereit für Suche.

Lokal · Qdrant
Lokal — auf Ihrer Infrastruktur
Externer EU-Dienst — DSGVO-konform via API
Datenfluss
Begriffe wie Chunk oder Embedding werden in Abschnitt 03 erklärt.
2.3

Phase B: Eine Frage wird beantwortet

Pro Frage · ≈ 2 Sek.
1

Frage stellen

Der Nutzer tippt seine Frage in den Chat — in normaler Sprache.

Lokal · Streamlit
2

Frage übersetzen

Auch die Frage wird vom Embedding-Dienst umgewandelt — damit sie mit den Karteikarten vergleichbar wird.

EU-Dienst · Scaleway
3

Karten ziehen

Die Vektordatenbank liefert die inhaltlich passendsten Chunks zurück — typisch drei bis fünf.

Lokal · Qdrant
4

Antwort formulieren

Frage + gefundene Chunks gehen an ein Sprachmodell (LLM), das daraus eine verständliche Antwort baut.

EU-Dienst · Scaleway
5

Antwort + Quellen

Antwort erscheint im Chat — mit Verweis auf Datei, Seite und Relevanz-Score zur Nachprüfung.

Lokal · Streamlit
Lokal — auf Ihrer Infrastruktur
Externer EU-Dienst — DSGVO-konform via API
Datenfluss

Begriffe wie Chunks, Embeddings oder Scaleway sind Ihnen aufgefallen?

Im nächsten Abschnitt erklären wir alle Fachbegriffe aus den Diagrammen verständlich — inklusive: was ist Scaleway eigentlich, und wann genau kommt der externe Dienst zum Einsatz?

Zum Glossar
03 — Begriffe verständlich erklärt

Die Fachbegriffe aus dem Diagramm — in Alltagssprache.

Sie haben die Übersicht gesehen. Hier sind die Begriffe ausführlich erklärt, sortiert nach ihrer Rolle im Gesamtsystem. Die Markierungen zeigen, ob ein Begriff für lokale Verarbeitung, einen externen Dienst oder beides relevant ist.

RAG Gesamtsystem

"Retrieval-Augmented Generation" — das Prinzip, das hinter dem Assistenten steckt.

Statt dass das Sprachmodell aus dem eigenen Kopf antwortet (und dabei oft erfindet), bekommt es vor jeder Antwort die relevanten Stellen aus Ihren Dokumenten zugespielt. Es retrievt also passendes Material und generiert dann darauf basierend die Antwort. Daher der Name.

Wo: Das gesamte Konzept der Lösung.
Chunk Lokal

Ein handlicher Abschnitt eines Dokuments — eine Karteikarte.

Statt ganze Dokumente zu speichern, werden sie in 1–2 Absätze große Stücke zerlegt. Jeder Chunk behält Metadaten wie Überschrift, Seitenzahl und Quelldokument. So kann der Assistent später punktgenau die relevante Stelle finden, statt das ganze Dokument neu zu lesen.

Wo: Phase A, Schritt 3.
Embedding Externer Dienst

Eine Zahlenfolge, die die Bedeutung eines Textes beschreibt.

Ein KI-Modell liest einen Text und erzeugt daraus eine Zahlenfolge — aus bis zu 4096 Zahlen. Texte mit ähnlichem Inhalt bekommen ähnliche Zahlen. Genau das macht inhaltliche Suche möglich: man vergleicht Zahlenfolgen statt Stichwörter.

Wo: Phase A, Schritt 4 · Phase B, Schritt 2.
Embedding-Dienst Externer Dienst

Der Dienst, der Texte in Vektoren umwandelt.

Ein spezialisiertes KI-Modell, das nichts anderes tut, als Text in eine mathematische Repräsentation zu übersetzen. Wir nutzen ihn an zwei Stellen: einmal beim Indexieren der Dokumente (Phase A) und einmal pro Frage (Phase B). Wichtig: An beiden Stellen muss derselbe Dienst verwendet werden, damit Frage und Karteikarten vergleichbar sind.

Wo: Phase A, Schritt 4 · Phase B, Schritt 2.
Vektor Datenformat

Der mathematische Name für so eine Zahlenfolge.

Ein Vektor ist nichts anderes als eine Liste von Zahlen. Im Kontext dieses Systems sind Vektor und Embedding praktisch synonym — "Embedding" beschreibt den Vorgang (Text wird in Zahlen umgewandelt), "Vektor" beschreibt das Ergebnis (die Zahlenfolge).

Wo: Im "Gedächtnis", verbindet die anderen Begriffe.
Vektordatenbank Lokal

Eine Datenbank, die nach Bedeutung sucht statt nach Stichwörtern.

Sie speichert nicht den Originaltext, sondern Chunks plus deren Vektoren. Bei einer Suche sucht sie diejenigen Chunks heraus, deren Vektoren dem Vektor der Frage am ähnlichsten sind — das sind die inhaltlich passendsten Treffer. Läuft komplett auf Ihrer Infrastruktur.

Wo: "Das Gedächtnis" zwischen Phase A und B.
Qdrant Lokal

Das konkrete Produkt, mit dem wir die Vektordatenbank umsetzen.

Qdrant ist eine quelloffene Vektordatenbank, die wir auf Ihrer Infrastruktur betreiben. Vergleichbare Produkte: Weaviate, Milvus, Pinecone. Wir haben Qdrant gewählt wegen guter Performance, einfacher Integration und kommerzieller Lizenzierung ohne Lock-in.

Wo: Phase A, Schritt 5 · Phase B, Schritt 3.
LLM Externer Dienst

"Large Language Model" — das Sprachmodell, das antwortet.

Bekannt aus ChatGPT & Co. Im RAG-System bekommt das LLM Ihre Frage plus die gefundenen Chunks und formuliert daraus eine Antwort in vollständigen Sätzen. Es greift dabei nur auf das gelieferte Material zu — nicht auf sein eigenes Trainingswissen.

Wo: Phase B, Schritt 4.
Scaleway Externer Dienst

Ein französischer EU-Cloud-Anbieter.

Scaleway ist der Name des Anbieters — vergleichbar mit AWS oder Azure, aber mit Rechenzentren ausschließlich in der EU (Paris, Amsterdam, Warschau). Wir nutzen Scaleway, um die KI-Modelle (Embedding und LLM) zu betreiben — DSGVO-konform und ohne Datenfluss in Drittländer. Alternative EU-Anbieter (OVH, IONOS, Hetzner) sind ebenso einsetzbar.

Wo: Beide Phasen, jeweils für KI-Modelle.
Metadaten Lokal

Zusatzinformationen zu jedem Dokument: Dateiname, Pfad, Datum, Seite.

Metadaten reisen mit jedem Chunk durch das ganze System mit. Dadurch kann der Assistent am Ende nicht nur eine Antwort liefern, sondern auch sagen: "Quelle: Vertrag.pdf, Seite 3". Kein Black-Box-Antwort, sondern volle Nachvollziehbarkeit.

Wo: Phase A, Schritt 2 — bis ans Ende sichtbar.
04 — Roadmap

Was wir als Nächstes für Sie bauen.

Die Basis steht: Vorbereitung und Nutzung funktionieren. Aufbauend darauf entwickeln wir gezielt die Funktionen, die Sie benötigen — in dieser Reihenfolge. Jeder Punkt ist konkret und greifbar, kein Buzzword.

Unser Ziel

Ein System, das mit Ihren Anforderungen wächst — modular, transparent, planbar.

Sie wählen, welche Funktionen Sie benötigen. Wir bauen sie modular auf der bestehenden Basis auf. Enge Abstimmung, kontinuierliches Feedback, klare Lieferung — statt eines monolithischen Big-Bang-Projekts.

01
Phase

Mehr Dateitypen verstehen

Heute liest der Assistent gängige Office-Dokumente, PDFs, Tabellen und Präsentationen. Schrittweise erweitern wir auf weitere Dateitypen, damit Ihre gesamte Dokumentenlandschaft abgedeckt ist — auch Dateien, die andere Tools übersehen.

Bereits unterstützt
Office & Standardformate

Word (.docx), PDF, Excel (.xlsx), PowerPoint (.pptx), Plain-Text.

Geplant
E-Mails & Nachrichten

Outlook-Postfächer (.eml, .msg) als Wissensquelle nutzbar machen.

Geplant
Bilder & Scans

Eingescannte Verträge und fotografierte Unterlagen per OCR durchsuchbar.

02
Phase

Anbindung an Ihre bestehenden Datenquellen

Damit der Assistent immer mit Ihren aktuellen Dokumenten arbeitet, verbindet er sich direkt mit den Orten, an denen sie liegen — statt manuell Dateien hochzuladen. So bleiben Quellenangaben erhalten und Aktualisierungen kommen automatisch im Assistenten an.

Beispiel
Dateiserver & SharePoint

Direkter Zugriff auf Ihre Netzlaufwerke und Microsoft 365-Bibliotheken.

Beispiel
E-Mail-Postfächer

Outlook-Postfächer als zusätzliche Wissensquelle einbinden.

Beispiel
Datenbanken & Cloud

Daten aus internen Systemen oder Cloud-Speichern (S3, Box) einlesen.

03
Phase

Wer darf was sehen

Nicht jedes Dokument ist für jeden Mitarbeiter gedacht. Über klar geregelte Berechtigungen sieht jede Person nur Inhalte, für die sie auch in Ihren Originalsystemen freigegeben ist — Personalakten bleiben in der HR, Vertragsdaten im Vertrieb.

Funktion
Login & Sicherheit

Anmeldung mit Ihrem bestehenden Verzeichnisdienst (z. B. Active Directory).

Funktion
Rollen & Rechte

Wer welche Dokumente sehen darf — gespiegelt aus Ihren Bestandssystemen.

Funktion
Audit & Protokoll

Wer hat wann was gefragt und welche Antwort bekommen — nachvollziehbar.

04
Phase

Aufgaben erledigen, nicht nur antworten

Aus dem Frage-Antwort-Assistenten wird ein handelnder Assistent: Er entwirft E-Mail-Antworten, erstellt Aufgabenlisten, ergänzt Recherche aus dem Web oder ruft externe Systeme auf. Sie geben das Ziel vor — der Assistent macht die Arbeit.

Beispiel
E-Mail-Entwürfe

"Schreib eine Antwort an Lieferant X mit den vereinbarten Konditionen aus dem Rahmenvertrag."

Beispiel
Web-Recherche ergänzen

Aktuelle Gesetzesänderungen oder Marktdaten zur Antwort hinzufügen, wenn intern nicht verfügbar.

Beispiel
Anbindung an Ihre Tools

Tickets in Jira erstellen, Termine im Kalender setzen, Daten in CRM-Systeme übertragen.

05
Phase

Ihre Datenablage automatisch aufräumen

Beim Indexieren sieht der Assistent ohnehin alle Ihre Dokumente. Diese Sicht nutzen wir, um Ihnen konkrete Aufräum-Vorschläge zu machen: Duplikate, veraltete Versionen, große ungenutzte Dateien. Sie entscheiden, was gelöscht oder archiviert wird — nichts geschieht automatisch.

Erkennung
Duplikate finden

Identische oder nahezu identische Dokumente in verschiedenen Ordnern aufdecken.

Erkennung
Veraltete Dateien

Dokumente, die seit Jahren nicht angefasst wurden — für Archivierung kennzeichnen.

Erkennung
Speicherfresser

Große Dateien, die selten genutzt werden — Vorschläge für Auslagerung.

Schluss

Ein Assistent, der nur Ihre Wahrheit kennt — und sagt, woher er sie hat.

Sie haben das Konzept verstanden, die Technik im Überblick gesehen, die Begriffe geklärt und einen Ausblick auf die Roadmap bekommen. Wenn Sie diskutieren möchten, wie das System bei Ihnen aussehen würde, sprechen wir gerne darüber.

Zurück zum Anfang