Spaces:
Sleeping
Sleeping
Update pages/📖History_Mystery.py
Browse files
pages/📖History_Mystery.py
CHANGED
@@ -59,8 +59,8 @@ st.title("""
|
|
59 |
History Mystery
|
60 |
""")
|
61 |
# Добавление слайдера
|
62 |
-
temp = st.slider("Градус дичи", 1.0, 20.0,
|
63 |
-
sen_quan = st.slider(" Длина сгенерированного отрывка", 2, 10,
|
64 |
# Загрузка модели и токенизатора
|
65 |
# model = GPT2LMHeadModel.from_pretrained('sberbank-ai/rugpt3small_based_on_gpt2')
|
66 |
# tokenizer = GPT2Tokenizer.from_pretrained('sberbank-ai/rugpt3small_based_on_gpt2')
|
@@ -87,8 +87,8 @@ def generate_text(model_GPT, tokenizer_GPT, prompt):
|
|
87 |
# Преобразование входной строки в токены
|
88 |
input_ids = tokenizer_GPT.encode(prompt, return_tensors='pt')
|
89 |
# Генерация текста
|
90 |
-
output = model_GPT.generate(input_ids=input_ids, max_length=
|
91 |
-
temperature=temp, top_k=
|
92 |
num_return_sequences=sen_quan)
|
93 |
# Декодирование сгенерированного текста
|
94 |
generated_text = tokenizer_GPT.decode(output[0], skip_special_tokens=True)
|
|
|
59 |
History Mystery
|
60 |
""")
|
61 |
# Добавление слайдера
|
62 |
+
temp = st.slider("Градус дичи", 1.0, 20.0, 5.0)
|
63 |
+
sen_quan = st.slider(" Длина сгенерированного отрывка", 2, 10, 7)
|
64 |
# Загрузка модели и токенизатора
|
65 |
# model = GPT2LMHeadModel.from_pretrained('sberbank-ai/rugpt3small_based_on_gpt2')
|
66 |
# tokenizer = GPT2Tokenizer.from_pretrained('sberbank-ai/rugpt3small_based_on_gpt2')
|
|
|
87 |
# Преобразование входной строки в токены
|
88 |
input_ids = tokenizer_GPT.encode(prompt, return_tensors='pt')
|
89 |
# Генерация текста
|
90 |
+
output = model_GPT.generate(input_ids=input_ids, max_length=100, num_beams=5, do_sample=True,
|
91 |
+
temperature=temp, top_k=60, top_p=0.6, no_repeat_ngram_size=4,
|
92 |
num_return_sequences=sen_quan)
|
93 |
# Декодирование сгенерированного текста
|
94 |
generated_text = tokenizer_GPT.decode(output[0], skip_special_tokens=True)
|