KI für Unternehmen in Zürich

  • 🍝`codecook.ch` ist unser Ort für KI, Prototyping und Workshops rund ums Bauen mit digitalen Ideen.
  • 🇨🇭Wir sind aus Zürich (Schweiz) und arbeiten von hier aus an KI und Tech-Projekten, Formaten und Experimenten.
  • 🤖Wir sind überzeugt, dass KI kein Hype ist. In der Flut der Informationen zeigen wir, wie man die Themen richtig einordnet.
  • 🧩Wir zeigen, wie mit Coding-Tools und guten Konzepten konkrete Ergebnisse entstehen. Hands-on und ohne Bla Bla.
  • 👾Obwohl wir selbst aus der IT kommen, schreiben wir hier bewusst keine Zeile Code selbst, um die Möglichkeiten und Grenzen von Vibe Coding mit KI zu zeigen.
  • 🛠️Du findest hier unsere Projekte, Tutorials und ausgewählte Präsentationen aus bisherigen Workshops.
Dima
Telekom
Orange
Lufthansa
Gate Gourmet
Commerzbank
Dima (Dimitry Uzilevsky)
Jahrgang 1986
Wo Business auf IT trifft: kreativ, neugierig, hands-on
Ausbildung: Fachinformatiker Anwendungsentwicklung
Studium: Wirtschaftsinformatik / MBA
Heute Zurück zu den IT-Wurzeln – Startup Trafa.App, KI-Projekte
Gate Gourmet - Head of Supply Chain
Lufthansa (LSG Sky Chefs), Transformation Controller, Stv. Leiter Finanzen
Group Controller beim Einkaufs-JV Deutsche Telekom-Orange
Interne Revision / Beteiligungscontrolling
Reporting Dashboards im IT-Grosskundenvertrieb
Fönsi
Baloise Asset Management
Allianz Global Investors
Credit Suisse
Dresdner Bank
ING Investment Management
Zürcher Kantonalbank
alpa solutions
Kanton Zürich
NN Investment Partners
Fönsi (Alfonso Papa)
Jahrgang 1970
Unternehmer, Business Coach, CRM & Asset Management
Ausbildung: Bankkaufmann
Studium: Betriebsökonom FH
Finanzabschlüsse: eidg. dipl. Finanzanalytiker, CEFA, CAIA
Heute Unternehmer und Business Coach, der Führungskräfte und Teams mit Herz, Erfahrung und digitaler Affinität begleitet
alpa solutions - Strategie, CRM und Organisationsentwicklung
Baloise Asset Management - Tribe Lead 3rd Party Clients, Sales und Business Development
Geschäftsführer Schweiz bei NN Investment Partners
26 Jahre in Führungsrollen als Information Manager, Business Developer und Country Head
37 Jahre kundenorientierte Erfahrung in der Finanzindustrie
KI-Workshops
Für Firmen in Zürich & Umgebung
Wir bieten Workshops für Unternehmen an, in denen Teams spielerisch lernen, wie KI im Arbeitsalltag funktioniert. Kein PowerPoint-Marathon, sondern hands-on: ausprobieren, verstehen, selber machen.
Tagesaktuelles Programm, weil sich KI-Themen fast täglich weiterentwickeln. Wir gestalten jeden Workshop passend zu eurem Team und eurem Kontext.
Dübendorf
Workshop-Präsentation
Mit KI Ideen zum Leben erwecken – unsere Präsentation aus dem Workshop in Dübendorf. Themen: KI-Grundlagen, Prototyping und Coding-Tools im Praxiseinsatz.
Kleiner Spickzettel für dich und für uns, wirklich nur Tools und Infos die man aktuell braucht (verändert sich rasant und fast täglich - klebe an keinen Tools)
Hands-on Setup:

Viele Coder arbeiten gern direkt in der Kommandozeile. Wir selbst bevorzugen für fast alles VS Code, weil du dort Code, Files, Terminal und AI-Plugins sauber an einem Ort hast.
✍️ Prompt-Tipps für den Anfang:

Beschreibe Ziel, Nutzer, Plattform und gewünschtes Ergebnis so konkret wie möglich.
Am besten aktuell auf Englisch prompten und coden. Deutsch funktioniert auch, aber meist etwas schlechter. Die meisten Modelle sind vor allem auf Englisch trainiert und die Sprache der Programmierer-Welt ist Englisch.
🧱 Für Anfänger besonders sinnvoll:

Starte mit einem kleinen Projekt statt mit einer riesigen Idee.
Lass dir zuerst eine einfache Datei- und Ordnerstruktur bauen.
Bitte das Modell, jeden Schritt kurz zu erklären und immer nur kleine Änderungen auf einmal zu machen.
✅ Gute erste Projekte:

Kleine Landing Page
To-do App
Notiz-App
Einfacher Daten- oder CSV-Viewer
🧪 Gute Arbeitsweise:

Erst planen lassen, dann Schritt für Schritt umsetzen.
Nach jedem Schritt kurz testen.
Fehler direkt wieder ins Tool zurückkopieren und um eine konkrete Behebung bitten.
🦘 Mit Roo Code:

Möglichkeit, lokale LLMs in VS Code oder in eigene Setups einzubinden.
📁 Was du fast immer brauchst:

Git oder GitHub für Versionskontrolle
Ein Terminal für Befehle
Einen guten Editor wie VS Code
Eine klare README mit Ziel und Setup
📱 Mobile Cross-Platform Apps (iOS + Android):

React Native Framework
Expo Runtime
Expo Logo
🖥️ Lokale Cross-Platform Apps (macOS + Windows):

Tauri Framework
🍎 Lokale macOS Apps:

Native Swift Framework
Xcode Project
🧠 Lokale LLMs:

Alles läuft lokal auf deinem Rechner. Langsamer als die AI Anbieter, aber sehr sicher und kostet nur Strom und keine Subscriptions. Fast alle lokalen LLM Programme basieren dabei auf `llama.cpp`, einer wichtigen Open-Source-Bibliothek.
🧪 Destillierte Modelle:

Kleinere, abgespeckte Versionen grosser Modelle. Sie sind schneller, günstiger und oft gut genug für viele praktische Aufgaben.
📦 Typische Grössen:

Einfach: 3B bis 7B, oft ca. 2 bis 5 GB
Mittel: 8B bis 14B, oft ca. 5 bis 10 GB
Fortgeschritten: 32B und mehr, oft 20 GB+

Faustregel:
16 GB RAM oder VRAM ist die absolute Untergrenze.
Mehr Speicher bedeutet meist grössere Modelle, mehr Kontext und flüssigeres Arbeiten.
⚠️ Voraussetzungen:

Rechner mit mindestens 16 GB RAM
oder starke Nvidia-Grafikkarte
Je mehr Speicher, desto besser.
🧩 Wichtige Begriffe:

🔢 4B, 6B, 8B usw. bedeuten grob die Anzahl der Parameter eines Modells.
Je mehr Parameter ein Modell hat, desto mehr Wissen, Nuancen und Komplexität kann es oft abbilden. Dafür braucht es aber auch mehr Speicher und mehr Rechenleistung.
🪟 GGUF ist das Standardformat für viele lokale `llama.cpp` Setups und meistens die beste Wahl auf Windows-Rechnern.
🍎 MLX ist besonders spannend für Apple Silicon und lokale Modelle auf dem Mac.
🏆 Bestes Coding-Modell lokal:

Qwen3 Coder Next (45 bis 85 GB).
Weitere Modelle, die wir lokal zum Coden nutzen: Qwen, Ministral und GLM.
🎥 Für Bild- und Videoverarbeitung nutzen wir:

Qwen und SmolVLM.
🍎 Unser Setup der Wahl:

Aktuell sind Macs für lokales Coden mit AI das beste und einfachste Setup. Vor allem wegen Unified Memory: CPU, GPU und Neural Engine greifen auf denselben gemeinsamen Speicher zu. Das macht lokale Modelle auf dem Mac oft unkomplizierter und effizienter.
💼 Für professionelle lokale LLM Aufgaben:

Mac Studio mit mindestens 32 GB Speicher.
🪟 Für Windows-spezifische Entwicklung:

Wenn du mit Unreal Engine, für PlayStation oder generell sehr Windows-lastig entwickelst, ist eine Windows-Maschine die bessere Wahl.
🧰 Unsere Geräte:

MacBook Pro (Apple M Chip) mit 16 GB RAM
Mac Studio (Apple M Chip) mit 32 GB RAM
Windows-Rechner mit RTX 4070 Super und 64 GB RAM
🦞 Claws:

Claws sind persönliche AI Assistants oder Agent-Runtimes, die nicht nur chatten, sondern echte Aufgaben übernehmen: Web, Apps, Files, Terminal und ganze kleine Workflows.
🧭 Was gerade passiert:

Die etablierten Anbieter bringen ihre eigenen Personal Assistants oder Programme heraus, die den Rechner direkt steuern können. Die Richtung ist klar: weniger Chat, mehr echte Ausführung.
🤖 Namen, die man kennen sollte:

OpenAI: ChatGPT agent, früher Operator
Anthropic: Claude Computer Use
Google: Project Mariner
Kimi: Kimi Claw, Kimi Agent Swarm
🔐 Security:

Solche Tools bekommen oft sehr viel Zugriff: Browser, Files, Terminal, Logins, Zwischenablage oder ganze Apps.
Prompt Injections sind ein echtes Problem. Eine Webseite oder Datei kann dem Agenten versteckte Anweisungen unterschieben.
Wenn du so etwas mit viel Rechteumfang laufen lässt, installierst du dir im Extremfall freiwillig einen Trojaner.
Darum: nur auf Maschinen mit wenig sensiblen Daten testen, wenig Rechte geben, Skills und Plugins wie echten Code behandeln und nie blind alles bestätigen.
Aktuelle LLM Anbieter:

Schneller Überblick, welche Modelle wir aktuell für Chat und fürs Coden im Blick haben. Das ist eine Einordnung, keine vollständige Marktübersicht.
ChatbotChatGPT
CodingCodex
ChatbotGemini
ChatbotLe Chat
CodingDevstral
ChatbotMeta AI
CodingLlama
ChatbotKimi
CodingKimi Code
ChatbotGrok
CodingGrok Code
ChatbotGLM

Stay Connected

Telegram QR für @uzico
Telegram
telegram: @uzico
WhatsApp QR für Dima
WhatsApp
whatsapp: Dima
E-Mail
Die Adresse wird erst nach deinem Klick im Browser zusammengesetzt.
  • LinkedIn: uzilevsky
  • E-Mail: Direkt per Mail kontaktieren
  • Instagram: @uzico
  • WhatsApp: Dima
  • Telegram: @uzico