--- license: mit datasets: - Atomic-Ai/AtomicGPT-3.0_Dataset language: - de base_model: - kkirchheim/german-gpt2-medium pipeline_tag: text-generation library_name: transformers tags: - legal - KI - Machine Learning - NLP - Transformers - Deep Learning - Sprachmodell - GPT-2 - Deutsch - Textgenerierung - Open Source - Forschung - Legal - Automatisierung - Modelltraining - Künstliche Intelligenz - AI Assistent - Natural Language Processing - German NLP - GPT-2 Fine-Tuning - Chatbot - Low-End Hardware - Budget Server - Effizientes Modell - Sprachverarbeitung - Smart AI - Textanalyse - KI-Optimierung - AI-Training - Intelligente Antworten --- # AtomicGPT 3.0 ## Überblick AtomicGPT 3.0 ist die neueste und leistungsstärkste Version unserer KI, die das Chatten und die Interaktion auf ein neues Level hebt! Es basiert auf einem erweiterten 50MB großen Datensatz und wurde gezielt optimiert, um intelligentere und kontextbezogene Antworten zu liefern. Die Trainingszeit betrug 10 Stunden, was eine perfekte Balance zwischen Effizienz und Qualität bietet. ## Vergleiche
Aufgaben L-GPT_1 L-GPT_1.1 L-GPT_1.5 L-GPT_1.5 mini AtomicGPT 1.0< AtomicGPT 2.0 AtomicGPT 3.0
Q&A 7.5% 44.17% 73.33% 64.17% 58.33% 59.17% 90%
## Warum ist AtomicGPT 3.0 besser als AtomicGPT 2.0? AtomicGPT 3.0 übertrifft die vorherige Version in mehreren wichtigen Aspekten: - **Erweiterter Datensatz**: Mit einem 50MB großen Trainingsdatensatz werden nun noch präzisere und kontextbezogene Antworten generiert. - **Viel bessere Antworten auf Fragen**: Das Modell versteht Anfragen besser, kann tiefere Kontexte erfassen und gibt relevantere Antworten. - **Mehr Wissen und Sprachverständnis**: Durch das größere Trainingsset und optimierte Algorithmen hat AtomicGPT 3.0 ein höheres Sprachverständnis und kann sich besser an verschiedene Fragestellungen anpassen. - **Gleiche bewährte Architektur**: Das Modell basiert weiterhin auf `kkirchheim/german-gpt2-medium`, was das Training auf Deutsch besonders effektiv macht. - **Optimiert für Low-End-Hardware & Budget-Server**: AtomicGPT 3.0 wurde effizient trainiert, sodass es auch auf leistungsschwachen Rechnern problemlos läuft. ## Training - **Stunden von Training**: 10 Stunden - **Epochs von Training**: 1 Epoch ## Installation & Nutzung ### Voraussetzungen Um AtomicGPT 3.0 zu verwenden, benötigst du folgende Abhängigkeiten: - Python 3.x - `transformers` - `torch` ### Schnellstart – Codebeispiel ```python from transformers import pipeline, AutoTokenizer import torch # Modell und Tokenizer laden MODEL_PATH = "Atomic-Ai/AtomicGPT-3" tokenizer = AutoTokenizer.from_pretrained(MODEL_PATH) chatbot = pipeline( "text-generation", model=MODEL_PATH, tokenizer=MODEL_PATH, device=0 if torch.cuda.is_available() else -1 ) def generate_response(prompt): output = chatbot( prompt, max_new_tokens=256, eos_token_id=tokenizer.eos_token_id, # Stoppt am -Token pad_token_id=tokenizer.pad_token_id, do_sample=True, temperature=0.7, top_p=0.9 ) return output[0]['generated_text'] def format_chat(user_input): return f"{user_input}" def extract_assistant_response(full_text): parts = full_text.split("") if len(parts) > 1: return parts[1].split("")[0].strip() return "Error: Response format invalid" def main(): print("Chat gestartet! Gib 'exit' ein, um zu beenden.") print("----------------------------------") while True: user_input = input("\nDu: ") if user_input.lower() == 'exit': break prompt = format_chat(user_input) full_response = generate_response(prompt) assistant_response = extract_assistant_response(full_response) print(f"\nAI Assistent: {assistant_response}") if __name__ == "__main__": main() ``` ## Support & Community Unterstütze uns und werde Teil unserer Community! Trete unserem Discord-Server bei und diskutiere mit anderen Entwicklern und KI-Enthusiasten. [Discord beitreten](https://discord.com/channels/1347678618133860424/1347685062258327553) ## Kleiner Leak **Mini**