-
Notifications
You must be signed in to change notification settings - Fork 0
/
config_template.yaml
134 lines (126 loc) · 4.96 KB
/
config_template.yaml
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
models:
- model_name: gpt-3.5-turbo-0613
api: true
provider: openai
- model_name: elyza-7B
api: false
provider: huggingface
system_prompt: "あなたは誠実で優秀な日本人のアシスタントです。"
do_sample: True
vllm_config:
model: elyza/ELYZA-japanese-Llama-2-7b-instruct
max_model_len: 1024
vllm_sampling_params:
temperature: 0.1
top_p: 0.95
max_tokens: 300
repetition_penalty: 1.2
hf_pipeline:
task: text-generation
model: elyza/ELYZA-japanese-Llama-2-7b-instruct
torch_dtype: auto
max_new_tokens: 1000
device_map: auto
trust_remote_code: True
return_full_text: False
hf_chat_template:
chat_template: |
{% set error_message = '' %}
{% if messages[0]['role'] == 'system' %}
{% set loop_messages = messages[1:] %}
{% set system_message = '<<SYS>>\n' + messages[0]['content'].strip() + '\n<</SYS>>\n\n' %}
{% if system_message.strip() != '' %}
{{ bos_token + '[INST] ' + system_message.strip() + ' [/INST]' }}
{% endif %}
{% else %}
{% set loop_messages = messages %}
{% endif %}
{% for message in loop_messages %}
{% if message['role'] == 'user' %}
{{ bos_token + '[INST] ' + message['content'].strip() + ' [/INST]' }}
{% elif message['role'] == 'assistant' %}
{{ ' ' + message['content'].strip() + ' ' + eos_token }}
{% endif %}
{% endfor %}
{% if error_message %}
{{ error_message }}
{% endif %}
tokenize: False
add_generation_prompt: True
- model_name: Rakuten-7B
api: false
provider: huggingface
system_prompt: "A chat between a curious user and an artificial intelligence assistant. The assistant gives helpful, detailed, and polite answers to the user's questions."
do_sample: True
vllm_config:
model: Rakuten/RakutenAI-7B-chat
max_model_len: 1024
vllm_sampling_params:
temperature: 0.1
top_p: 0.95
max_tokens: 300
repetition_penalty: 1.2
hf_pipeline:
task: text-generation
model: Rakuten/RakutenAI-7B-chat
torch_dtype: auto
max_new_tokens: 1000
device_map: auto
trust_remote_code: True
return_full_text: False
hf_chat_template:
add_generation_prompt: True
tokenize: False
chat_template: |
{% set error_message = '' %}
{% if messages[0]['role'] == 'system' %}
SYSTEM: {{ messages[0]['content'].strip() }}
{% set loop_messages = messages[1:] %}
{% else %}
{% set loop_messages = messages %}
{% endif %}
{% for message in loop_messages %}
{% if message['role'] == 'user' %}
USER: {{ message['content'] }}
{% elif message['role'] == 'assistant' %}
ASSISTANT: {{ message['content'] }}
{% endif %}
{% endfor %}
{% if error_message %}
{{ error_message }}
{% endif %}
eval_datasets:
- dataset_name: japanese_mt_bench
judge_prompt_template: |
[指示]
公平な判断者として行動し、以下に表示されるユーザーの質問に対するAIアシスタントの応答の品質を評価してください。あなたの評価は、応答の有用性、関連性、正確性、深さ、創造性、詳細度などの要素を考慮すべきです。AIアシスタントの返答の言語は、ユーザーが使用している言語と一致しているべきで、そうでない場合は減点されるべきです。評価は短い説明から始めてください。できるだけ客観的であること。説明を提供した後、このフォーマットに厳密に従って1から10までのスケールで応答を評価する必要があります:"[[評価]]"、例えば:"評価:[[5]]"。
{% set question_count = 0 %}
{% for message in messages %}
{% if message.role == 'user' %}
{% set question_count = question_count + 1 %}
[質問]
{{ message.content }}
{% if query.get('reference_answers', None) and query.reference_answers|length >= question_count %}
[参考回答の開始]
{{ query.reference_answers[question_count - 1] }}
[参考回答の終了]
{% endif %}
{% elif message.role == 'assistant' %}
[アシスタントの回答の開始]
{{ message.content }}
[アシスタントの回答の終了]
{% endif %}
{% endfor %}
num_questions: 0
random_questions: False
use_jinja: true
score_keyword: 評価:\[\[(\d+)\]\]
judge_models:
- model_name: gpt-4-turbo-preview
api: true
provider: openai
eval_datasets_dir: ./datasets
log_dir: ./logs
result_dir: ./results
inference_library: vllm
existing_eval_dir: