\n\n\n\n Mein AI-Agent-Projekt: Was ich jetzt lerne - ClawGo \n

Mein AI-Agent-Projekt: Was ich jetzt lerne

📖 9 min read1,744 wordsUpdated Mar 27, 2026

Hey zusammen, Jake hier von clawgo.net. Es ist der 23. März 2026, und wenn es euch wie mir geht, ist euer Posteingang wahrscheinlich überquellend mit Überschriften wie „AI dies“ und „Agent das“. Es ist leicht, sich in einem Ozean von Hype verloren zu fühlen, besonders wenn man versucht, tatsächlich etwas Arbeit zu erledigen. Vergesst für einen Moment die unrealistischen Versprechungen. Heute möchte ich über etwas Greifbares sprechen, etwas, das ich in den letzten Wochen getestet habe und das tatsächlich einen Unterschied in meinem Alltag macht: die Nutzung von KI-Agenten, um meine überquellende digitale Vermögenssammlung zu verwalten. Konkret spreche ich über OpenClaw und wie ich ein System eingerichtet habe, um meine lächerlich hohe Anzahl an Screenshots, Codeschnipseln und unausgereiften Designideen zu verwalten.

Mein digitales Leben ist ein Chaos. Da habe ich es gesagt. Als Tech-Blogger mache ich ständig Screenshots, lade Codebeispiele herunter, speichere Artikel und entwerfe Notizen. Alles landet in einer Handvoll Ordner, die normalerweise so etwas heißen wie „Zeug“, „Neuer Ordner (2)“ oder „Desktop (final) (BITTE NICHT LÖSCHEN)“. Wenn ich tatsächlich das perfekte Screenshot einer OpenClaw-Konsole von vor drei Wochen finden möchte oder das Python-Skript, das ich zusammengeschustert habe, um etwas JSON zu parsen, ist es eine Schatzsuche. Ich habe alle üblichen Verdächtigen ausprobiert: Cloud-Speicher mit integrierter Suche, Desktop-Suchtools, sogar alles gewissenhaft taggen. Nichts hat wirklich funktioniert. Bis jetzt.

Das Chaos, das gezähmt werden musste: Mein digitales Sammelsurium

Seien wir ehrlich. Mein „System“ bestand aus:

  • Ein „Downloads“-Ordner, der im Grunde ein schwarzes Loch war.
  • Ein „Screenshots“-Ordner mit Hunderten von PNGs, die so etwas hießen wie „Screenshot 2026-03-01 um 10.34.12 Uhr.png“.
  • Verschiedene Projektordner, jeder mit eigenen Mini-Downloads und Screenshots-Ordnern.
  • Ein Evernote-Konto voller Notizen, die ich nie erneut lese.
  • Ein Google Drive mit Dateien, die von Google organisiert sind…

Das Problem ist nicht nur das Finden von Dingen; es ist die geistige Belastung zu wissen, wo ich überhaupt anfangen soll zu suchen. Es ist die mentale Reibung, die mich davon abhält, gute Inhalte erneut zu verwenden oder sogar daran zu denken, dass ich sie überhaupt hatte.

Warum OpenClaw? Mein agentenbasierter Ansatz

Ich habe mit ein paar verschiedenen Agenten-Frameworks experimentiert, aber OpenClaw hat für mich wirklich funktioniert, weil es auf Modularität und lokale Kontrolle setzt. Ich wollte nicht, dass mein ganzes digitales Leben auf einen Drittanbieterdienst hochgeladen wird. Ich wollte etwas, das auf meiner Maschine läuft, auf meine lokalen Dateien zugreifen kann und flexibel genug ist, um meinen seltsamen, spezifischen Bedürfnissen gerecht zu werden. Die Möglichkeit von OpenClaw, benutzerdefinierte „Fähigkeiten“ zu definieren und sie mit einfachen YAML-Konfigurationen zu orchestrieren, fühlte sich genau richtig an.

Meine grundsätzliche Idee war einfach: ein Agent, der bestimmte Ordner überwachen, neue Dateien identifizieren, verstehen konnte, was sie waren (Bild, Code, Dokument), und sie dann in eine organisierte Struktur verschieben konnte, während er auch Metadaten extrahierte und sie durchsuchbar machte. Denkt daran wie an einen super-mächtigen digitalen Butler für meine Dateien.

Der „Digitale Archivarin“ Agent

So habe ich es aufgeschlüsselt:

  1. Die Beobachter-Fähigkeit: Diese Fähigkeit hat die Aufgabe, zu bemerken, wenn neue Dateien in meinen „eingehenden“ Ordnern (Downloads, Desktop, Screenshots) erscheinen.
  2. Die Klassifizierer-Fähigkeit: Sobald eine neue Datei erkannt wird, nutzt diese Fähigkeit ein lokales LLM (ich nutze eine quantisierte Version von Llama 3 auf meinem Desktop), um den Dateityp und den Inhalt zu bestimmen. Für Bilder versucht es zu beschreiben, was im Bild ist. Für Code identifiziert es die Sprache und versucht, deren Zweck zu erfassen. Für Dokumente extrahiert es Schlüsselwörter.
  3. Die Bewegungsfähigkeit: Basierend auf der Klassifizierung verschiebt diese Fähigkeit die Datei in einen geeigneten, strukturierten Ordner (z. B. ~/Archive/Screenshots/2026/März/ oder ~/Archive/Code/Python/).
  4. Die Indexierungsfähigkeit: Das ist der entscheidende Teil. Es nimmt alle extrahierten Metadaten (Beschreibung, Schlüsselwörter, Dateipfad, Datum) und schiebt sie in eine lokale SQLite-Datenbank, wodurch sie durchsuchbar wird.

Es klingt komplex, aber mit OpenClaw war es überraschend unkompliziert, diese als separate, wiederverwendbare Fähigkeiten zu definieren und sie dann zu orchestrieren. Hier ist eine vereinfachte Version meiner agent_config.yaml:


agent_name: DigitalArchivist
description: Ein Agent, der digitale Vermögenswerte automatisch organisiert und indiziert.

skills:
 - name: FileWatcher
 module: local_skills.file_management
 function: watch_directory
 config:
 directories: ["/Users/jake/Downloads", "/Users/jake/Desktop/temp_incoming"]
 interval_seconds: 60

 - name: FileClassifier
 module: local_skills.classification
 function: classify_and_extract
 dependencies: [FileWatcher]
 config:
 llm_model_path: "/Users/jake/llm_models/llama3-8b-quant.gguf"
 image_processor_endpoint: "http://localhost:8000/image_describe" # Eine lokale API zur Bildbeschreibung

 - name: FileMover
 module: local_skills.file_management
 function: move_file_to_archive
 dependencies: [FileClassifier]
 config:
 archive_root: "/Users/jake/Archive"

 - name: MetadataIndexer
 module: local_skills.indexing
 function: index_metadata
 dependencies: [FileMover]
 config:
 db_path: "/Users/jake/Archive/metadata.db"

tasks:
 - name: ProcessNewFiles
 steps:
 - skill: FileWatcher
 output_key: new_files
 - skill: FileClassifier
 input_key: new_files
 output_key: classified_data
 - skill: FileMover
 input_key: classified_data
 output_key: moved_files
 - skill: MetadataIndexer
 input_key: classified_data

Und hier ist ein Blick auf eine vereinfachte Version der classify_and_extract-Funktion aus local_skills/classification.py. Hier kommt das lokale LLM für textbasierte Dateien zum Einsatz:


import os
from llama_cpp import Llama
import mimetypes

def classify_and_extract(file_path, llm_model_path, image_processor_endpoint=None):
 llm = Llama(model_path=llm_model_path, n_ctx=2048, n_batch=512)
 mime_type, _ = mimetypes.guess_type(file_path)
 file_extension = os.path.splitext(file_path)[1].lower()

 if mime_type and mime_type.startswith('image'):
 # In einem realen Szenario würde dies den image_processor_endpoint aufrufen
 # Zur Vereinfachung werden wir hier einfach eine Beschreibung simulieren
 description = f"Bilddatei: {os.path.basename(file_path)}. Wahrscheinlich ein Screenshot."
 keywords = ["Bild", "Screenshot", "visuell"]
 file_type = "image"
 elif file_extension in ['.py', '.js', '.html', '.css', '.md', '.txt']:
 with open(file_path, 'r', encoding='utf-8', errors='ignore') as f:
 content = f.read(2000) # Lese die ersten 2KB zur Klassifizierung
 
 prompt = f"Analysiere den folgenden Textinhalt und bestimme seinen Typ (z. B. Python-Code, JavaScript, Markdown, reiner Text). Extrahiere dann 3-5 Schlüsselwörter und gib eine kurze Zusammenfassung seines wahrscheinlichen Zwecks. Formatiere als JSON.\n\nInhalt:\n{content}\n\nJSON:"
 
 output = llm(prompt, max_tokens=200, stop=["\n\n"], echo=False)
 try:
 parsed_output = json.loads(output['choices'][0]['text'])
 description = parsed_output.get('summary', 'Keine Zusammenfassung bereitgestellt.')
 keywords = parsed_output.get('keywords', [])
 file_type = parsed_output.get('type', 'document')
 except json.JSONDecodeError:
 description = "Konnte LLM-Ausgabe nicht parsen. Generisches Dokument."
 keywords = ["Dokument", "unklassifiziert"]
 file_type = "document"
 else:
 description = f"Allgemeine Datei: {os.path.basename(file_path)}"
 keywords = ["generisch", "unklassifiziert"]
 file_type = "other"

 return {
 "file_path": file_path,
 "description": description,
 "keywords": keywords,
 "file_type": file_type,
 "timestamp": os.path.getmtime(file_path)
 }

Der image_processor_endpoint ist ein separater, kleiner FastAPI-Dienst, den ich lokal betreibe und der ein feinabgestimmtes CLIP-Modell zur Bildbeschreibung verwendet. Das geht ein bisschen über den Rahmen dieses Artikels hinaus, aber es ist ein großartiges Beispiel dafür, wie man spezialisierte lokale Modelle mit OpenClaw-Agenten integrieren kann.

Die Ergebnisse: Weniger Chaos, mehr Fokus

Nachdem ich diesen Agenten ein paar Wochen laufen ließ, ist der Unterschied Tag und Nacht. Mein Downloads-Ordner ist kein Friedhof mehr. Jede neue Datei, die ich auf meinem Desktop ablege oder aus einem Browser speichere, wird innerhalb von Minuten verarbeitet. Ich habe jetzt ein wunderschön organisiertes ~/Archive-Verzeichnis, mit Unterordnern für Jahr, Monat und Inhaltstyp. Es geht jedoch nicht nur um die Organisation.

Die eigentliche Magie ist die durchsuchbare Datenbank. Ich habe eine kleine Web-UI (eine weitere kleine FastAPI-App) erstellt, die die SQLite-Datenbank abfragt. Jetzt, wenn ich das „OpenClaw console output“-Screenshot benötige, gebe ich einfach „OpenClaw console output“ in meine Suchleiste ein, und boom, da ist es, zusammen mit dem Dateipfad und einem Link, um es zu öffnen. Wenn ich nach „Python script to parse JSON“ suche, erhalte ich eine Liste aller relevanten Skripte, komplett mit ihren LLM-generierten Zusammenfassungen. Es ist, als hätte ich einen persönlichen Bibliothekar für mein digitales Chaos.

Ein kleiner Rückschlag, eine schnelle Lösung

Eine Herausforderung, mit der ich früh konfrontiert wurde, waren sehr große Dateien. Das LLM hatte manchmal Schwierigkeiten, massive Textdateien zu verarbeiten. Meine Lösung bestand darin, eine Dateigrößenkontrolle im FileClassifier hinzuzufügen und für alles über einer bestimmten Schwelle (sagen wir 5MB) nur grundlegende Metadaten wie Dateinamen, Typ und Erstellungsdatum zu extrahieren, anstatt eine vollständige Inhaltsanalyse durchzuführen. Es ist ein pragmatischer Kompromiss: besser, einige Metadaten zu haben als gar keine, weil der Agent abgestürzt ist.

Praktische Erkenntnisse

Wenn ihr in digitalem Chaos ertrinkt wie ich, hier ist, wie ihr beginnen könnt, euren eigenen digitalen Archivaren zu erstellen:

  1. Identifizieren Sie Ihre Schmerzpunkte: Mit welchen spezifischen Dateitypen haben Sie Schwierigkeiten bei der Organisation? Wo landen sie normalerweise? Bei mir waren es Screenshots und Code-Schnipsel.
  2. Fangen Sie klein mit OpenClaw an: Versuchen Sie nicht, sofort den ultimativen Agenten zu erstellen. Beginnen Sie mit einer einzelnen Fähigkeit, wie zum Beispiel nur einen Ordner zu überwachen. Machen Sie das funktionierend.
  3. Verwenden Sie lokale LLMs (oder APIs): Für Klassifizierung und Zusammenfassung kann ein lokales LLM äußerst leistungsfähig sein und Privatsphäre bieten. Wenn lokal keine Option ist, ziehen Sie einen privaten API-Endpunkt für spezifische Aufgaben in Betracht.
  4. Definieren Sie klare Fähigkeiten: Zerlegen Sie Ihren gewünschten Arbeitsablauf in discrete, handhabbare Fähigkeiten. Das macht Ihren Agenten leichter zu debuggen und zu erweitern.
  5. Bauen Sie eine Suchschicht: Die Organisation ist großartig, aber der wahre Nutzen entsteht, wenn Sie Dinge wiederfinden können. Eine einfache SQLite-Datenbank und eine grundlegende Suchoberfläche können den Unterschied ausmachen.
  6. Iterieren und verfeinern: Mein Agent ist nicht perfekt, und ich passe ständig die Klassifizierungsaufforderungen an und füge neue Fähigkeiten hinzu (wie das automatische Löschen temporärer Dateien nach der Verarbeitung). KI-Agenten sind lebendige Systeme; sie werden durch Nutzung und Verfeinerung besser.

Es geht nicht um magische „KI übernimmt mein Leben“-Szenarien. Es geht darum, intelligente Werkzeuge zu nutzen, um echte, alltägliche Probleme zu lösen. Mein OpenClaw-Agent organisiert nicht nur Dateien; er befreit mentale Energie, reduziert Frustration und macht mich letztendlich effizienter. Und das ist für mich ein großer Gewinn.

Verwandte Artikel

🕒 Published:

🤖
Written by Jake Chen

AI automation specialist with 5+ years building AI agents. Previously at a Y Combinator startup. Runs OpenClaw deployments for 200+ users.

Learn more →
Browse Topics: Advanced Topics | AI Agent Tools | AI Agents | Automation | Comparisons
Scroll to Top