RichardErkhov commited on
Commit
0b974ae
·
verified ·
1 Parent(s): 43280c8

uploaded readme

Browse files
Files changed (1) hide show
  1. README.md +81 -0
README.md ADDED
@@ -0,0 +1,81 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ Quantization made by Richard Erkhov.
2
+
3
+ [Github](https://github.com/RichardErkhov)
4
+
5
+ [Discord](https://discord.gg/pvy7H8DZMG)
6
+
7
+ [Request more models](https://github.com/RichardErkhov/quant_request)
8
+
9
+
10
+ liz-nojaloli-nxja-ja - bnb 4bits
11
+ - Model creator: https://huggingface.co/ebisuke/
12
+ - Original model: https://huggingface.co/ebisuke/liz-nojaloli-nxja-ja/
13
+
14
+
15
+
16
+
17
+ Original model description:
18
+ ---
19
+ language:
20
+ - ja
21
+ datasets:
22
+ - ebisuke/liz-nojaloli-ja-ds
23
+ ---
24
+ # ebisuke/liz-nojaloli-nxja-ja
25
+
26
+ ## License
27
+ [MIT](https://opensource.org/licenses/MIT)
28
+ ベースとして[abeja/gpt-neox-japanese-2.7b](https://huggingface.co/abeja/gpt-neox-japanese-2.7b)を使用しています。
29
+
30
+ ## Description
31
+ のじゃロリ風味チャットモデルです。
32
+ [ebisuke/liz-nojaloli-ja](ebisuke/liz-nojaloli-ja)のバリアントです。
33
+
34
+ [abeja/gpt-neox-japanese-2.7b](https://huggingface.co/abeja/gpt-neox-japanese-2.7b)をベースとしてファインチューンしています。
35
+ 開発者の趣味と個人的な勉強用の為に作成しました。
36
+
37
+ いろいろと不足しているのであまり会話は通じません。
38
+ __本モデルは開発中のため、データセットの更新により逐次アップデートされる可能性があります。__
39
+
40
+
41
+ ## Datasets
42
+ ファインチューンでは以下のデータセットのみ使用しています。
43
+ [ebisuke/liz-nojaloli-ja-ds](https://huggingface.co/datasets/ebisuke/liz-nojaloli-ja-ds)
44
+
45
+ ## Usage
46
+
47
+ ユーザーの入力を"`相手は言いました。「(内容)」\n`"で括ってください。
48
+ モデルは"`あなたは言いました。「`"以降の文脈を生成します。
49
+ それ以降も続く場合があるので必要に応じて"`」`"の文字までで打ち切ってください。
50
+ ```python
51
+ import torch
52
+ from transformers import AutoTokenizer, AutoModelForCausalLM
53
+
54
+ tokenizer = AutoTokenizer.from_pretrained("ebisuke/liz-nojaloli-nxja-ja", use_fast=True)
55
+ model = AutoModelForCausalLM.from_pretrained("ebisuke/liz-nojaloli-nxja-ja", load_in_8bit=True, device_map='auto')
56
+
57
+ text = "相手は言いました。「眠いにゃ・・・」 \nあなたは言いました。「"
58
+ token_ids = tokenizer.encode(text, add_special_tokens=False, return_tensors="pt")
59
+
60
+ with torch.no_grad():
61
+ output_ids = model.generate(
62
+ input_ids=token_ids.to(model.device),
63
+ max_new_tokens=1000,
64
+ do_sample=True,
65
+ temperature=0.7,
66
+ pad_token_id=tokenizer.pad_token_id,
67
+ bos_token_id=tokenizer.bos_token_id,
68
+ eos_token_id=tokenizer.eos_token_id,
69
+ )
70
+
71
+ output = tokenizer.decode(output_ids.tolist()[0],skip_special_tokens=True)
72
+ print(output)
73
+ ```
74
+
75
+
76
+ ## Plan
77
+ - RLHFとかに挑戦してみる。
78
+ - プロンプトの記述方法を、既存のチャットモデルのフォーマットに合わせるか検討中。
79
+ - 指示をあまり受け付けない・物を知らない方が好みなので、そういうチューニングは限定的です。
80
+
81
+