@@ -42,7 +42,7 @@ docker run -it -d --gpus all --ipc=host --net=host -p 80:80 --name=chatglm \
42
42
--model_name chatglm \
43
43
--model_path THUDM/chatglm-6b \
44
44
--device cuda \
45
- --embedding_name GanymedeNil/text2vec-large-chinese
45
+ --embedding_name moka-ai/m3e-base
46
46
```
47
47
48
48
ptuing-v2:
@@ -60,7 +60,7 @@ docker run -it -d --gpus all --ipc=host --net=host -p 80:80 --name=chatglm \
60
60
--device cuda \
61
61
--adapter_model_path ptuing_v2_chekpint_dir \
62
62
--use_ptuning_v2 \
63
- --embedding_name GanymedeNil/text2vec-large-chinese
63
+ --embedding_name moka-ai/m3e-base
64
64
```
65
65
66
66
### MOSS
@@ -76,7 +76,7 @@ docker run -it -d --gpus all --ipc=host --net=host -p 80:80 --name=moss \
76
76
--model_name moss \
77
77
--model_path fnlp/moss-moon-003-sft-int4 \
78
78
--device cuda \
79
- --embedding_name GanymedeNil/text2vec-large-chinese
79
+ --embedding_name moka-ai/m3e-base
80
80
```
81
81
82
82
### Phoenix
@@ -92,7 +92,7 @@ docker run -it -d --gpus all --ipc=host --net=host -p 80:80 --name=phoenix \
92
92
--model_name phoenix \
93
93
--model_path FreedomIntelligence/phoenix-inst-chat-7b \
94
94
--device cuda \
95
- --embedding_name GanymedeNil/text2vec-large-chinese
95
+ --embedding_name moka-ai/m3e-base
96
96
```
97
97
98
98
### Guanaco
@@ -109,7 +109,7 @@ docker run -it -d --gpus all --ipc=host --net=host -p 80:80 --name=guanaco \
109
109
--model_path timdettmers/guanaco-33b-merged \
110
110
--device cuda \
111
111
--load_in_4bit \
112
- --embedding_name GanymedeNil/text2vec-large-chinese
112
+ --embedding_name moka-ai/m3e-base
113
113
```
114
114
115
115
### Tiger
@@ -126,7 +126,7 @@ docker run -it -d --gpus all --ipc=host --net=host -p 80:80 --name=tiger \
126
126
--model_path TigerResearch/tigerbot-7b-sft \
127
127
--device cuda \
128
128
--load_in_4bit \
129
- --embedding_name GanymedeNil/text2vec-large-chinese
129
+ --embedding_name moka-ai/m3e-base
130
130
```
131
131
132
132
### OpenBuddy
@@ -144,7 +144,7 @@ docker run -it -d --gpus all --ipc=host --net=host -p 80:80 --name=openbuddy-lla
144
144
--model_name openbuddy-llama \
145
145
--model_path OpenBuddy/openbuddy-llama-7b-v1.4-fp16 \
146
146
--device cuda \
147
- --embedding_name GanymedeNil/text2vec-large-chinese
147
+ --embedding_name moka-ai/m3e-base
148
148
```
149
149
150
150
Falcon
@@ -160,5 +160,5 @@ docker run -it -d --gpus all --ipc=host --net=host -p 80:80 --name=openbuddy-fal
160
160
--model_name openbuddy-falcon \
161
161
--model_path OpenBuddy/openbuddy-falcon-7b-v5-fp16 \
162
162
--device cuda \
163
- --embedding_name GanymedeNil/text2vec-large-chinese
163
+ --embedding_name moka-ai/m3e-base
164
164
```
0 commit comments