---
license: mit
datasets:
- Atomic-Ai/AtomicGPT-3.0_Dataset
language:
- de
base_model:
- kkirchheim/german-gpt2-medium
pipeline_tag: text-generation
library_name: transformers
tags:
- legal
- KI
- Machine Learning
- NLP
- Transformers
- Deep Learning
- Sprachmodell
- GPT-2
- Deutsch
- Textgenerierung
- Open Source
- Forschung
- Legal
- Automatisierung
- Modelltraining
- Künstliche Intelligenz
- AI Assistent
- Natural Language Processing
- German NLP
- GPT-2 Fine-Tuning
- Chatbot
- Low-End Hardware
- Budget Server
- Effizientes Modell
- Sprachverarbeitung
- Smart AI
- Textanalyse
- KI-Optimierung
- AI-Training
- Intelligente Antworten
---
# AtomicGPT 3.0
## Überblick
AtomicGPT 3.0 ist die neueste und leistungsstärkste Version unserer KI, die das Chatten und die Interaktion auf ein neues Level hebt! Es basiert auf einem erweiterten 50MB großen Datensatz und wurde gezielt optimiert, um intelligentere und kontextbezogene Antworten zu liefern. Die Trainingszeit betrug 10 Stunden, was eine perfekte Balance zwischen Effizienz und Qualität bietet.
## Vergleiche
Aufgaben |
L-GPT_1 |
L-GPT_1.1 |
L-GPT_1.5 |
L-GPT_1.5 mini |
AtomicGPT 1.0< |
AtomicGPT 2.0 |
AtomicGPT 3.0 |
Q&A |
7.5% |
44.17% |
73.33% |
64.17% |
58.33% |
59.17% |
90% |
## Warum ist AtomicGPT 3.0 besser als AtomicGPT 2.0?
AtomicGPT 3.0 übertrifft die vorherige Version in mehreren wichtigen Aspekten:
- **Erweiterter Datensatz**: Mit einem 50MB großen Trainingsdatensatz werden nun noch präzisere und kontextbezogene Antworten generiert.
- **Viel bessere Antworten auf Fragen**: Das Modell versteht Anfragen besser, kann tiefere Kontexte erfassen und gibt relevantere Antworten.
- **Mehr Wissen und Sprachverständnis**: Durch das größere Trainingsset und optimierte Algorithmen hat AtomicGPT 3.0 ein höheres Sprachverständnis und kann sich besser an verschiedene Fragestellungen anpassen.
- **Gleiche bewährte Architektur**: Das Modell basiert weiterhin auf `kkirchheim/german-gpt2-medium`, was das Training auf Deutsch besonders effektiv macht.
- **Optimiert für Low-End-Hardware & Budget-Server**: AtomicGPT 3.0 wurde effizient trainiert, sodass es auch auf leistungsschwachen Rechnern problemlos läuft.
## Training
- **Stunden von Training**: 10 Stunden
- **Epochs von Training**: 1 Epoch
## Installation & Nutzung
### Voraussetzungen
Um AtomicGPT 3.0 zu verwenden, benötigst du folgende Abhängigkeiten:
- Python 3.x
- `transformers`
- `torch`
### Schnellstart – Codebeispiel
```python
from transformers import pipeline, AutoTokenizer
import torch
# Modell und Tokenizer laden
MODEL_PATH = "Atomic-Ai/AtomicGPT-3"
tokenizer = AutoTokenizer.from_pretrained(MODEL_PATH)
chatbot = pipeline(
"text-generation",
model=MODEL_PATH,
tokenizer=MODEL_PATH,
device=0 if torch.cuda.is_available() else -1
)
def generate_response(prompt):
output = chatbot(
prompt,
max_new_tokens=256,
eos_token_id=tokenizer.eos_token_id, # Stoppt am -Token
pad_token_id=tokenizer.pad_token_id,
do_sample=True,
temperature=0.7,
top_p=0.9
)
return output[0]['generated_text']
def format_chat(user_input):
return f"{user_input}"
def extract_assistant_response(full_text):
parts = full_text.split("")
if len(parts) > 1:
return parts[1].split("")[0].strip()
return "Error: Response format invalid"
def main():
print("Chat gestartet! Gib 'exit' ein, um zu beenden.")
print("----------------------------------")
while True:
user_input = input("\nDu: ")
if user_input.lower() == 'exit':
break
prompt = format_chat(user_input)
full_response = generate_response(prompt)
assistant_response = extract_assistant_response(full_response)
print(f"\nAI Assistent: {assistant_response}")
if __name__ == "__main__":
main()
```
## Support & Community
Unterstütze uns und werde Teil unserer Community! Trete unserem Discord-Server bei und diskutiere mit anderen Entwicklern und KI-Enthusiasten.
[Discord beitreten](https://discord.com/channels/1347678618133860424/1347685062258327553)
## Kleiner Leak
**Mini**