Blog
dranbleiben!
Marcelo Emmerich

ChatGPT ohne OpenAI - ALLE Möglichkeiten

1699870855834

Absolut ALLE, ohne auch nur eine auszulassen 😂 und ohne dass man zur Finanzierung eigene Organe verkaufen muss.

Natürlich nicht, vermutlich kommen, während ich das hier schreibe, noch 10 dazu 🤯. Aber egal, ich wollte mal die, die mir bekannt sind und ich für interessant halte, hier auflisten ✍️. Und ich wette um ein Falafel-Sandwich 🥙, dass hier mindestens eine Möglichkeit dabei sind, die du noch nicht kanntest 🧐. Let's go 💪:

Und falls ihr euch wundert, warum so viele Emojis hier auftauchen, ich habe ein Emoji Enhancer GPT (dann doch mit OpenAI 😂) gebaut, der automatisch Emojis in Text einfügt. Macht irgendwie süchtig. Veröffentliche ich demnächst. Aber zurück zum Thema, ohne weitere Emojis:

Coral von Cohere

ChatGPT Feeling mit Internetzugang und Angabe von Quellen. Erfordert Registrierung, ist aber kostenlos.

https://coral.cohere.com/

LlamaCPP

Llama und andere quantisierte Open Source Modelle lokal laufen lassen mit der Power von C++. Mehr was für die Techies unter uns. Aber gute Performance und extrem viel Kontrolle darüber, was man damit machen kann.

https://github.com/ggerganov/llama.cpp

OLLAMA

Ollama ist eine direkt downloadbare App für Mac und Linux, mit der man fast beliebige Open Source Modelle lokal auf dem eigenen Rechner laufen lassen kann. Das geht auch ohne eine GPU, sofern deine CPU einigermaßen flott unterwegs ist. Ich empfehle es mit einen meiner Lieblingsmodelle zu testen, dolphin-2.2.1-mistral-7b

https://ollama.ai/

Petals

GPU Power über Torrent-ähnliches, Peer-to-Peer Netzwerk zur Verfügung stellen und kostenlos nutzen. Diverse Open Source Modelle verfügbar (Falcon, Llama, Beluga...)

https://chat.petals.dev/

https://health.petals.dev/

RunPod mit TheBlokeLLM One-Click UI and API

Niedrige Kosten, Profi-Performance, fast beliebige Open Source Modelle, WebUI und API in einem?

Bei RunPod in der Secure Cloud eine RTX A6000 ab $0,67/Stunde oder ca. 480 EUR/Monat mieten und das Template von TheBloke installieren. Danach kann man in der WebUI fast jedes Open Source Modell runterladen und laufen lassen. Über die OpenAI-kompatible API lassen sich die Modelle so in echte Anwendungen integrieren.

https://www.runpod.io

https://github.com/TheBlokeAI/dockerLLM

vLLM, lokaler drop-in replacement für OpenAI mit Open Source Modelle

Führt lokal Open Source Modelle aus und bietet auch eine OpenAI-kompatible API an, so dass man, wenn das OSS LLM passt, eigene AI Programme, die für gpt-4, gpt-3.5-turbo usw, geschrieben wurden, ohne Änderung (ausser dass man den API key auf "NULL" setzen kann) laufen lassen kann.

https://vllm.ai/

WebLLM, LLM im Browser

Open Source Modelle direkt im Browser ausführen? Warum nicht. Wenn dein Browser auf deine GPU WebGPU fähig ist. Kann leicht in Abnerderei ausarten, um es ans Laufen zu kriegen. ChatGPT-ähnliche Demo auf der Seite

https://webllm.mlc.ai/

WebML, Xenova's Collections

Diverse LLM Anwendungen, laufen direkt im Browser, powered by Huggingface Transformers.js.

https://huggingface.co/collections/Xenova/transformersjs-demos-64f9c4f49c099d93dbc611df

Wenn euch was davon besonders interessiert kann ich gerne ein Deep-Dive machen. Ansonsten:

Bucht gerne eine erste kostenlose KI Beratung mit mir: https://calendly.com/marcelo_emmerich/kostenlose-ki-beratung

oder kommt zu unserem KI Readyness Online Event:

https://www.linkedin.com/events/live-online-kireadinessoderwieb7127336040545038337/theater/

none
Conventic Icon
Standort Bonn
Burgstraße 69
53177 Bonn
Deutschland
+49 228 76 37 69 70
Standort Braunschweig
Westbahnhof 11
38118 Braunschweig
Deutschland
+49 228 76 37 69 70
Wir sind Mitglied bei
Grouplink Icon
Newsletter abonnieren
Impressum, Haftungsausschluss, Datenschutzerklärung und
© 2024 conventic GmbH · Alle Rechte vorbehalten.