Novaciano's picture
Update README.md
40183c2 verified
metadata
base_model: carsenk/llama3.2_1b_2025_uncensored_v2
datasets:
  - mlabonne/FineTome-100k
  - microsoft/orca-math-word-problems-200k
  - m-a-p/CodeFeedback-Filtered-Instruction
  - cognitivecomputations/dolphin-coder
  - PawanKrd/math-gpt-4o-200k
  - V3N0M/Jenna-50K-Alpaca-Uncensored
  - FreedomIntelligence/medical-o1-reasoning-SFT
  - Dampfinchen/Creative_Writing_Multiturn-Balanced-8192
language:
  - en
  - es
library_name: transformers
license: llama3.2
pipeline_tag: text-generation
tags:
  - llama
  - unsloth
  - uncensored
  - llama-3.2
  - llama.cpp
  - koboldcpp
  - gguf
  - inference
  - nsfw
  - llama-cpp
  - 1b
  - 4-bit
  - rp
  - roleplay
  - not-for-all-audiences

Uncensored 1b Creative Writer RP

Este es un modelo sin censura con siete datasets + uno que he inyectado que se trata de una fusi贸n de alta calidad de diferentes conjuntos de datos de escritura y juego de roles de HuggingFace. Esta versi贸n cuenta con una longitud de secuencia de 8K (tokenizador Llama 3). Asegura que los entrenadores como Axolotl no descarten las muestras. Realizado con el script de https://huggingface.co/xzuyn

Lea la tarjeta del conjunto de datos para obtener m谩s informaci贸n: https://huggingface.co/datasets/Dampfinchen/Creative_Writing_Multiturn -> Si puede entrenar con una longitud de secuencia de entrada de 16K o m谩s, definitivamente 煤sela en su lugar.

Tenga en cuenta que este material puede contener todo tipo de datos expl铆citos problem谩ticos. No me hago responsable de ello ni lo apruebo. Descargue el material 煤nicamente si conoce la situaci贸n legal de los contenidos ficticios escritos de cualquier tipo en su pa铆s.