KI Tutorials für Unternehmen und Teams
Viele Coder arbeiten gern direkt in der Kommandozeile. Wir selbst bevorzugen für fast alles VS Code, weil du dort Code, Files, Terminal und AI-Plugins sauber an einem Ort hast.
Agent-first IDE von Google. Läuft als eigene Entwicklungsumgebung auf deinem Rechner, nicht im Browser.
Momentan für viele das beste Preis-Leistungs-Verhältnis. Studenten bekommen es oft kostenlos, und du kannst mehrere Modelle direkt im Editor vergleichen.
Direkt im Chat stark für Struktur, Erklärungen und längere Coding-Aufgaben.
Am besten über das VS Code Plugin, wenn du Qwen direkt im Editor ausprobieren willst.
Unser empfohlenes Setup. Hier laufen Codex, GitHub Copilot, Claude und Qwen an einem Ort mit Files, Git und Terminal.
Wenn OpenAI, dann für Coding direkt Codex statt ChatGPT. Stark für agentisches Arbeiten direkt im Tool und im Editor.
Beschreibe Ziel, Nutzer, Plattform und gewünschtes Ergebnis so konkret wie möglich.
Am besten aktuell auf Englisch prompten und coden. Deutsch funktioniert auch, aber meist etwas schlechter. Die meisten Modelle sind vor allem auf Englisch trainiert und die Sprache der Programmierer-Welt ist Englisch.
Starte mit einem kleinen Projekt statt mit einer riesigen Idee.
Lass dir zuerst eine einfache Datei- und Ordnerstruktur bauen.
Bitte das Modell, jeden Schritt kurz zu erklären und immer nur kleine Änderungen auf einmal zu machen.
Kleine Landing Page
To-do App
Notiz-App
Einfacher Daten- oder CSV-Viewer
Erst planen lassen, dann Schritt für Schritt umsetzen.
Nach jedem Schritt kurz testen.
Fehler direkt wieder ins Tool zurückkopieren und um eine konkrete Behebung bitten.
Möglichkeit, lokale LLMs in VS Code oder in eigene Setups einzubinden.
Git oder GitHub für Versionskontrolle
Ein Terminal für Befehle
Einen guten Editor wie VS Code
Eine klare README mit Ziel und Setup
Tauri Framework
Native Swift Framework
Xcode Project
Alles läuft lokal auf deinem Rechner. Langsamer als die AI Anbieter, aber sehr sicher und kostet nur Strom und keine Subscriptions. Fast alle lokalen LLM Programme basieren dabei auf `llama.cpp`, einer wichtigen Open-Source-Bibliothek.
Sehr einfacher `llama.cpp` Wrapper. Ein bisschen wie ChatGPT-Style für lokale Modelle.
Etwas komplexerer, aber immer noch einfacher Wrapper mit mehr Einstellungsmöglichkeiten.
Für Cracks, die lokale LLMs in eigene Tools integrieren oder direkt mit der Kommandozeile arbeiten wollen.
Datenbank für aktuelle und destillierte Modelle.
Kleinere, abgespeckte Versionen grosser Modelle. Sie sind schneller, günstiger und oft gut genug für viele praktische Aufgaben.
Einfach: 3B bis 7B, oft ca. 2 bis 5 GB
Mittel: 8B bis 14B, oft ca. 5 bis 10 GB
Fortgeschritten: 32B und mehr, oft 20 GB+
Faustregel:
16 GB RAM oder VRAM ist die absolute Untergrenze.
Mehr Speicher bedeutet meist grössere Modelle, mehr Kontext und flüssigeres Arbeiten.
Rechner mit mindestens 16 GB RAM
oder starke Nvidia-Grafikkarte
Je mehr Speicher, desto besser.
🔢 4B, 6B, 8B usw. bedeuten grob die Anzahl der Parameter eines Modells.
Je mehr Parameter ein Modell hat, desto mehr Wissen, Nuancen und Komplexität kann es oft abbilden. Dafür braucht es aber auch mehr Speicher und mehr Rechenleistung.
🪟 GGUF ist das Standardformat für viele lokale `llama.cpp` Setups und meistens die beste Wahl auf Windows-Rechnern.
🍎 MLX ist besonders spannend für Apple Silicon und lokale Modelle auf dem Mac.
Weitere Modelle, die wir lokal zum Coden nutzen: Qwen, Ministral und GLM.
Qwen und SmolVLM.
Aktuell sind Macs für lokales Coden mit AI das beste und einfachste Setup. Vor allem wegen Unified Memory: CPU, GPU und Neural Engine greifen auf denselben gemeinsamen Speicher zu. Das macht lokale Modelle auf dem Mac oft unkomplizierter und effizienter.
Mac Studio mit mindestens 32 GB Speicher.
Wenn du mit Unreal Engine, für PlayStation oder generell sehr Windows-lastig entwickelst, ist eine Windows-Maschine die bessere Wahl.
MacBook Pro (Apple M Chip) mit 16 GB RAM
Mac Studio (Apple M Chip) mit 32 GB RAM
Windows-Rechner mit RTX 4070 Super und 64 GB RAM
Claws sind persönliche AI Assistants oder Agent-Runtimes, die nicht nur chatten, sondern echte Aufgaben übernehmen: Web, Apps, Files, Terminal und ganze kleine Workflows.
Der wichtigste Open-Source-Claw im Moment. Ursprünglich von Peter Steinberger gestartet. Lokal, flexibel und klar im Agent- und Assistant-Bereich.
Cloud-Version rund um OpenClaw. Ein-Klick-Setup, 24/7 online und deutlich einfacher für Einsteiger.
OpenAIs Richtung für echte Computer-Use- und Web-Aufgaben. Kann browsen, Dateien nutzen, Formulare ausfüllen und Aktionen ausführen.
Anthropics Computer-Use-Ansatz. Kann Screens sehen und Maus sowie Tastatur direkt steuern.
Die etablierten Anbieter bringen ihre eigenen Personal Assistants oder Programme heraus, die den Rechner direkt steuern können. Die Richtung ist klar: weniger Chat, mehr echte Ausführung.
OpenAI: ChatGPT agent, früher Operator
Anthropic: Claude Computer Use
Google: Project Mariner
Kimi: Kimi Claw, Kimi Agent Swarm
Solche Tools bekommen oft sehr viel Zugriff: Browser, Files, Terminal, Logins, Zwischenablage oder ganze Apps.
Prompt Injections sind ein echtes Problem. Eine Webseite oder Datei kann dem Agenten versteckte Anweisungen unterschieben.
Wenn du so etwas mit viel Rechteumfang laufen lässt, installierst du dir im Extremfall freiwillig einen Trojaner.
Darum: nur auf Maschinen mit wenig sensiblen Daten testen, wenig Rechte geben, Skills und Plugins wie echten Code behandeln und nie blind alles bestätigen.
Schneller Überblick, welche Modelle wir aktuell für Chat und fürs Coden im Blick haben. Das ist eine Einordnung, keine vollständige Marktübersicht.