Update README.md
Browse files
README.md
CHANGED
@@ -18,9 +18,13 @@ prompt_template: '{prompt}
|
|
18 |
quantized_by: miweru
|
19 |
tags:
|
20 |
- llama-2
|
|
|
|
|
|
|
21 |
---
|
22 |
# gguf Quantized Version of LeoLM 70b Chat
|
23 |
|
|
|
24 |
|
25 |
# LAION LeoLM 70b Chat: **L**inguistically **E**nhanced **O**pen **L**anguage **M**odel
|
26 |
Dieses Modell ist eine quantisierte Version des LeoLM/leo-hessianai-70b, einem der leistungsfähigsten öffentlich zugänglichen Sprachmodelle für die deutsche Sprache, basierend auf Llama-2. Durch die Quantisierung mit der Q5_K_M-Methode ist es möglich, das Modell effizient auf Hardware wie dem MacBook Pro M3 Max zu betreiben. Trotz der Anpassung durch Quantisierung bietet das Modell eine beeindruckende Leistung für eine Vielzahl von Textgenerierungs- und Verständnisaufgaben in deutscher Sprache.
|
@@ -107,3 +111,210 @@ GGUF ist ein neues Format, das am 21. August 2023 vom llama.cpp-Team eingeführt
|
|
107 |
- [llama-cpp-python](https://github.com/abetlen/llama-cpp-python): Eine Python-Bibliothek mit GPU-Beschleunigung, LangChain-Unterstützung und einem OpenAI-kompatiblen API-Server.
|
108 |
|
109 |
Für detaillierte Informationen zur Nutzung des GGUF-Formats und zur Kompatibilität mit verschiedenen Tools besuchen Sie die entsprechenden Projektseiten.
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
18 |
quantized_by: miweru
|
19 |
tags:
|
20 |
- llama-2
|
21 |
+
- llama
|
22 |
+
- gguf
|
23 |
+
- Q5_K_M
|
24 |
---
|
25 |
# gguf Quantized Version of LeoLM 70b Chat
|
26 |
|
27 |
+
see english version beyond
|
28 |
|
29 |
# LAION LeoLM 70b Chat: **L**inguistically **E**nhanced **O**pen **L**anguage **M**odel
|
30 |
Dieses Modell ist eine quantisierte Version des LeoLM/leo-hessianai-70b, einem der leistungsfähigsten öffentlich zugänglichen Sprachmodelle für die deutsche Sprache, basierend auf Llama-2. Durch die Quantisierung mit der Q5_K_M-Methode ist es möglich, das Modell effizient auf Hardware wie dem MacBook Pro M3 Max zu betreiben. Trotz der Anpassung durch Quantisierung bietet das Modell eine beeindruckende Leistung für eine Vielzahl von Textgenerierungs- und Verständnisaufgaben in deutscher Sprache.
|
|
|
111 |
- [llama-cpp-python](https://github.com/abetlen/llama-cpp-python): Eine Python-Bibliothek mit GPU-Beschleunigung, LangChain-Unterstützung und einem OpenAI-kompatiblen API-Server.
|
112 |
|
113 |
Für detaillierte Informationen zur Nutzung des GGUF-Formats und zur Kompatibilität mit verschiedenen Tools besuchen Sie die entsprechenden Projektseiten.
|
114 |
+
|
115 |
+
## Technische Spezifikationen
|
116 |
+
|
117 |
+
### Modellarchitektur und Zielsetzung
|
118 |
+
|
119 |
+
Dieses Modell ist eine quantisierte Version des LeoLM/leo-hessianai-70b, optimiert für Textgenerierungs- und Verständnisaufgaben in deutscher Sprache. Es nutzt die Transformer-Architektur für autoregressives Sprachmodellieren, angepasst für eine effiziente lokale Ausführung durch Q5_K_M-Quantisierung.
|
120 |
+
|
121 |
+
|
122 |
+
## Trainingsdetails
|
123 |
+
|
124 |
+
### Trainingsdaten
|
125 |
+
|
126 |
+
Das Modell wurde auf einem vielfältigen Korpus von Texten in deutscher Sprache vortrainiert, einschließlich, aber nicht beschränkt auf:
|
127 |
+
|
128 |
+
- LeoLM/OpenSchnabeltier
|
129 |
+
- OpenAssistant/OASST-DE
|
130 |
+
- FreedomIntelligence/alpaca-gpt4-deutsch
|
131 |
+
- FreedomIntelligence/evol-instruct-deutsch
|
132 |
+
- LeoLM/German_Poems
|
133 |
+
- LeoLM/German_Songs
|
134 |
+
|
135 |
+
Dieser Korpus deckt eine breite Palette von Themen und Stilen ab und bietet ein umfassendes Verständnis der deutschen Sprache.
|
136 |
+
|
137 |
+
### Trainingsverfahren
|
138 |
+
|
139 |
+
Das ursprüngliche LeoLM/leo-hessianai-70b-Modell wurde mit einer Mischung aus unbeaufsichtigten und überwachten Lernverfahren auf den oben genannten Datensätzen vortrainiert. Anschließend wurde der Quantisierungsprozess angewendet, um das Modell ohne signifikanten Leistungsverlust in das GGUF-Format zu komprimieren.
|
140 |
+
|
141 |
+
## Evaluation
|
142 |
+
|
143 |
+
### Testdaten, Faktoren & Metriken
|
144 |
+
|
145 |
+
[Mehr Informationen benötigt] - Evaluationsverfahren und Metriken für das quantisierte Modell hängen von den spezifischen Aufgaben und Domänen ab, auf die es angewendet wird.
|
146 |
+
|
147 |
+
## Umweltauswirkungen
|
148 |
+
|
149 |
+
Der Quantisierungsprozess dieses Modells hatte minimale Umweltauswirkungen. Er wurde auf einem MacBook Pro M3 Max durchgeführt und dauerte nur wenige Minuten. Diese Effizienz ist den fortschrittlichen Rechenfähigkeiten der verwendeten Hardwarekonfiguration zuzuschreiben. Durch die Begrenzung der erforderlichen Rechenzeit und die Nutzung eines einzigen Geräts wurde der Energieverbrauch während des Quantisierungsprozesses erheblich reduziert. Dies unterstreicht das Engagement für die Entwicklung und Optimierung leistungsfähiger KI-Modelle unter Berücksichtigung ökologischer Nachhaltigkeit.
|
150 |
+
Der Quantisierungsprozess reduziert die Größe und die Rechenanforderungen des Modells, was potenziell die Umweltauswirkungen während der Inferenz durch eine effiziente Ausführung auf Verbraucher-Hardware verringern kann.
|
151 |
+
|
152 |
+
## Modelluntersuchung
|
153 |
+
|
154 |
+
[Mehr Informationen benötigt] - Weitere Analysen und Interpretationsarbeiten bezüglich des Verhaltens des Modells, insbesondere nach der Quantisierung, würden Einblicke in mögliche Leistungsänderungen oder Vorurteile bieten.
|
155 |
+
|
156 |
+
## Zitation
|
157 |
+
|
158 |
+
Wenn Sie dieses Modell in Ihrer Forschung verwenden, zitieren Sie bitte das ursprüngliche LeoLM/leo-hessianai-70b-Modell und die Quantisierungsarbeit von TheBloke und miweru. [Mehr Informationen benötigt] für spezifische Zitationsformate.
|
159 |
+
|
160 |
+
## Glossar
|
161 |
+
|
162 |
+
- **GGUF:** Ein Format für quantisierte Modelle, eingeführt vom llama.cpp-Team, entworfen für effiziente Speicherung und Ausführung.
|
163 |
+
- **Quantisierung:** Der Prozess der Reduzierung der Präzision der Gewichte des Modells, was eine reduzierte Modellgröße und Rechenanforderungen ermöglicht.
|
164 |
+
|
165 |
+
## Weitere Informationen
|
166 |
+
|
167 |
+
Für weitere Informationen über den Quantisierungsprozess, das GGUF-Format und wie Sie dieses Modell im llama.cpp-Ökosystem nutzen können, besuchen Sie bitte die folgenden Ressourcen:
|
168 |
+
|
169 |
+
- [llama.cpp GitHub-Repository](https://github.com/ggerganov/llama.cpp)
|
170 |
+
- [Einführung in das GGUF-Format](https://github.com/ggerganov/llama.cpp#GGUF)
|
171 |
+
|
172 |
+
|
173 |
+
|
174 |
+
# English Description
|
175 |
+
|
176 |
+
# GGUF Quantized Version of LeoLM 70b Chat
|
177 |
+
|
178 |
+
# LAION LeoLM 70b Chat: **L**inguistically **E**nhanced **O**pen **L**anguage **M**odel
|
179 |
+
This model is a quantized version of the LeoLM/leo-hessianai-70b, one of the most powerful publicly available language models for the German language, based on Llama-2. The Q5_K_M quantization method allows the model to run efficiently on hardware such as the MacBook Pro M3 Max. Despite the adjustments made through quantization, the model offers impressive performance for a wide range of text generation and comprehension tasks in German.
|
180 |
+
|
181 |
+
## Usage Notes
|
182 |
+
The model is optimized for use in the German language and is well-suited for applications such as text generation, translation, and other NLP tasks. It has been specially quantized to enable local execution on computers with limited resources, without significantly losing accuracy or responsiveness.
|
183 |
+
|
184 |
+
## Acknowledgments
|
185 |
+
Special thanks to the llama.cpp team for the quantization code and the LeoLM team for developing the original model. This work would not have been possible without their valuable contributions. Further thanks to TheBloke, on whose explanations the model description is based.
|
186 |
+
|
187 |
+
## License
|
188 |
+
|
189 |
+
Please observe the license terms of the original model as well as any additional guidelines that apply to the use of the quantized version.
|
190 |
+
|
191 |
+
## Uses
|
192 |
+
|
193 |
+
### Direct Use
|
194 |
+
The LeoLM 70B - Q5_K_M quantized model is intended for direct use in natural language processing (NLP) applications, including but not limited to text generation, translation, summarization, and other tasks requiring the processing of the German language.
|
195 |
+
|
196 |
+
### Downstream Use
|
197 |
+
The model can further be fine-tuned for specific NLP tasks to improve performance in specialized domains or applications. It can also be integrated into larger systems or platforms that require NLP capabilities.
|
198 |
+
|
199 |
+
### Out-of-Scope Use
|
200 |
+
The use of the model for purposes that violate ethical guidelines, support illegal activities, or cause harm to individuals or groups is not intended.
|
201 |
+
|
202 |
+
## Bias, Risks, and Limitations
|
203 |
+
|
204 |
+
The model inherits potential biases and limitations from its training dataset and the risks associated with large language models, including but not limited to the reproduction or amplification of existing societal prejudices.
|
205 |
+
|
206 |
+
### Recommendations
|
207 |
+
|
208 |
+
Users should be aware of the limitations and potential biases of the model and take appropriate measures to mitigate these risks, including reviewing outputs and implementing safety mechanisms.
|
209 |
+
|
210 |
+
## How to Get Started with the Model
|
211 |
+
|
212 |
+
The LeoLM 70B - Q5_K_M quantized model is available in GGUF format and cannot be used directly with the Hugging Face Transformers library. Instead, it is executed with the llama.cpp project, which enables efficient execution of quantized models on various hardware configurations, including support for GPU acceleration.
|
213 |
+
|
214 |
+
### Installation and Execution with llama.cpp
|
215 |
+
|
216 |
+
Visit the [llama.cpp GitHub page](https://github.com/ggerganov/llama.cpp) for instructions on installation and use with GGUF models. After installation, you can run the model using the CLI or server of llama.cpp.
|
217 |
+
|
218 |
+
## Prompting / Prompt Template
|
219 |
+
|
220 |
+
The model supports the following prompt template in ChatML format for interaction:
|
221 |
+
|
222 |
+
```
|
223 |
+
"""
|
224 |
+
<|im_start|>system
|
225 |
+
{system_message}<|im_end|>
|
226 |
+
<|im_start|>user
|
227 |
+
{prompt}<|im_end|>
|
228 |
+
<|im_start|>assistant
|
229 |
+
"""
|
230 |
+
```
|
231 |
+
|
232 |
+
The model input can contain multiple conversation turns between user and assistant, e.g.
|
233 |
+
```
|
234 |
+
<|im_start|>user
|
235 |
+
{prompt 1}<|im_end|>
|
236 |
+
<|im_start|>assistant
|
237 |
+
{reply 1}<|im_end|>
|
238 |
+
<|im_start|>user
|
239 |
+
{prompt 2}<|im_end|>
|
240 |
+
<|im_start|>assistant
|
241 |
+
(...)
|
242 |
+
```
|
243 |
+
|
244 |
+
|
245 |
+
Note that in the model, the tokens `|im_start|` and `|im_end|` have been replaced due to a tokenizer error.
|
246 |
+
|
247 |
+
### About GGUF
|
248 |
+
|
249 |
+
GGUF is a new format introduced by the llama.cpp team on August 21, 2023. It serves as a replacement for the GGML format, which is no longer supported by llama.cpp. GGUF models are compatible with a variety of clients and libraries, including:
|
250 |
+
|
251 |
+
- [llama.cpp](https://github.com/ggerganov/llama.cpp): The source project for GGUF. Offers a CLI and a server option.
|
252 |
+
- [text-generation-webui](https://github.com/oobabooga/text-generation-webui): The most widely used web UI with many features and powerful extensions. Supports GPU acceleration.
|
253 |
+
- [KoboldCpp](https://github.com/LostRuins/koboldcpp): A fully featured web UI that offers GPU acceleration across all platforms and GPU architectures. Especially suitable for storytelling.
|
254 |
+
- [GPT4All](https://gpt4all.io/index.html): A free and open-source GUI for local operation, supporting Windows, Linux, and macOS with full GPU acceleration.
|
255 |
+
- [LM Studio](https://lmstudio.ai/): A user-friendly and powerful local GUI for Windows and macOS (Silicon) with GPU acceleration. Linux is available as a beta version.
|
256 |
+
- [LoLLMS Web UI](https://github.com/ParisNeo/lollms-webui): An excellent web UI with many interesting and unique features, including a complete model library for easy model selection.
|
257 |
+
- [Faraday.dev](https://faraday.dev/): An attractive and easy-to-use chat GUI for Windows and macOS (both Silicon and Intel) with GPU acceleration.
|
258 |
+
- [llama-cpp-python](https://github.com/abetlen/llama-cpp-python): A Python library with GPU acceleration, LangChain support, and an OpenAI-compatible API server.
|
259 |
+
|
260 |
+
For detailed information on the use of the GGUF format and compatibility with various tools, please visit the respective project pages.
|
261 |
+
|
262 |
+
|
263 |
+
## Technical Specifications
|
264 |
+
|
265 |
+
### Model Architecture and Objective
|
266 |
+
|
267 |
+
This model is a quantized version of the LeoLM/leo-hessianai-70b, optimized for text generation and understanding tasks in the German language. It utilizes the transformer architecture for auto-regressive language modeling, adapted for efficient local execution through Q5_K_M quantization.
|
268 |
+
|
269 |
+
## Training Details
|
270 |
+
|
271 |
+
### Training Data
|
272 |
+
|
273 |
+
The model was pretrained on a diverse corpus of German-language texts, including but not limited to:
|
274 |
+
|
275 |
+
- LeoLM/OpenSchnabeltier
|
276 |
+
- OpenAssistant/OASST-DE
|
277 |
+
- FreedomIntelligence/alpaca-gpt4-deutsch
|
278 |
+
- FreedomIntelligence/evol-instruct-deutsch
|
279 |
+
- LeoLM/German_Poems
|
280 |
+
- LeoLM/German_Songs
|
281 |
+
|
282 |
+
This corpus covers a wide range of topics and styles, providing a broad understanding of the German language.
|
283 |
+
|
284 |
+
### Training Procedure
|
285 |
+
|
286 |
+
The original LeoLM/leo-hessianai-70b model was pretrained using a mixture of unsupervised and supervised learning techniques on the aforementioned datasets. The quantization process was then applied to compress the model into the GGUF format without significant loss in performance.
|
287 |
+
|
288 |
+
## Evaluation
|
289 |
+
|
290 |
+
### Testing Data, Factors & Metrics
|
291 |
+
|
292 |
+
[More Information Needed] - Evaluation procedures and metrics for the quantized model would depend on the specific tasks and domains it is applied to.
|
293 |
+
|
294 |
+
## Environmental Impact
|
295 |
+
|
296 |
+
The quantization process of this model had a minimal environmental impact. It was carried out on a MacBook Pro M3 Max and lasted only a few minutes. This efficiency is attributed to the advanced computational capabilities of the hardware setup used. By limiting the required computational time and utilizing a single device, the energy consumption during the quantization process was significantly reduced. This highlights the commitment to developing and optimizing powerful AI models with consideration for ecological sustainability.
|
297 |
+
The quantization process reduces the model's size and computational requirements, potentially lowering the environmental impact during inference by enabling efficient execution on consumer-grade hardware.
|
298 |
+
|
299 |
+
|
300 |
+
## Model Examination
|
301 |
+
|
302 |
+
[More Information Needed] - Further analysis and interpretation work regarding the model's behavior, especially post-quantization, would provide insights into any changes in performance or biases.
|
303 |
+
|
304 |
+
## Citation
|
305 |
+
|
306 |
+
If you use this model in your research, please cite the original LeoLM/leo-hessianai-70b model and the quantization work done by TheBloke and miweru. [More Information Needed] for specific citation formats.
|
307 |
+
|
308 |
+
## Glossary
|
309 |
+
|
310 |
+
- **GGUF:** A format for quantized models introduced by the llama.cpp team, designed for efficient storage and execution.
|
311 |
+
- **Quantization:** The process of reducing the precision of the model's weights, allowing for reduced model size and computational requirements.
|
312 |
+
|
313 |
+
## More Information
|
314 |
+
|
315 |
+
For more information on the quantization process, the GGUF format, and how to utilize this model within the llama.cpp ecosystem, please refer to the following resources:
|
316 |
+
|
317 |
+
- [llama.cpp GitHub repository](https://github.com/ggerganov/llama.cpp)
|
318 |
+
- [GGUF Format Introduction](https://github.com/ggerganov/llama.cpp#GGUF)
|
319 |
+
|
320 |
+
|