From 93e880bf9325b67061d4bb88d4f6300fbcd85d0f Mon Sep 17 00:00:00 2001 From: Arvin Xu Date: Tue, 26 Nov 2024 09:54:09 +0000 Subject: [PATCH] =?UTF-8?q?=F0=9F=8C=90=20chore:=20update=20i18n?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- locales/ar/chat.json | 7 +++++++ locales/ar/common.json | 2 ++ locales/ar/models.json | 24 ++++++++++++++++++++++++ locales/ar/providers.json | 3 +++ locales/ar/setting.json | 5 +++++ locales/ar/thread.json | 5 +++++ locales/bg-BG/chat.json | 7 +++++++ locales/bg-BG/common.json | 2 ++ locales/bg-BG/models.json | 24 ++++++++++++++++++++++++ locales/bg-BG/providers.json | 3 +++ locales/bg-BG/setting.json | 5 +++++ locales/bg-BG/thread.json | 5 +++++ locales/de-DE/chat.json | 7 +++++++ locales/de-DE/common.json | 2 ++ locales/de-DE/models.json | 24 ++++++++++++++++++++++++ locales/de-DE/providers.json | 3 +++ locales/de-DE/setting.json | 5 +++++ locales/de-DE/thread.json | 5 +++++ locales/en-US/chat.json | 7 +++++++ locales/en-US/common.json | 2 ++ locales/en-US/models.json | 24 ++++++++++++++++++++++++ locales/en-US/providers.json | 3 +++ locales/en-US/setting.json | 5 +++++ locales/en-US/thread.json | 5 +++++ locales/es-ES/chat.json | 7 +++++++ locales/es-ES/common.json | 2 ++ locales/es-ES/models.json | 24 ++++++++++++++++++++++++ locales/es-ES/providers.json | 3 +++ locales/es-ES/setting.json | 5 +++++ locales/es-ES/thread.json | 5 +++++ locales/fa-IR/chat.json | 7 +++++++ locales/fa-IR/common.json | 2 ++ locales/fa-IR/models.json | 24 ++++++++++++++++++++++++ locales/fa-IR/providers.json | 3 +++ locales/fa-IR/setting.json | 5 +++++ locales/fa-IR/thread.json | 5 +++++ locales/fr-FR/chat.json | 7 +++++++ locales/fr-FR/common.json | 2 ++ locales/fr-FR/models.json | 24 ++++++++++++++++++++++++ locales/fr-FR/providers.json | 3 +++ locales/fr-FR/setting.json | 5 +++++ locales/fr-FR/thread.json | 5 +++++ locales/it-IT/chat.json | 7 +++++++ locales/it-IT/common.json | 2 ++ locales/it-IT/models.json | 24 ++++++++++++++++++++++++ locales/it-IT/providers.json | 3 +++ locales/it-IT/setting.json | 5 +++++ locales/it-IT/thread.json | 5 +++++ locales/ja-JP/chat.json | 7 +++++++ locales/ja-JP/common.json | 2 ++ locales/ja-JP/models.json | 24 ++++++++++++++++++++++++ locales/ja-JP/providers.json | 3 +++ locales/ja-JP/setting.json | 5 +++++ locales/ja-JP/thread.json | 5 +++++ locales/ko-KR/chat.json | 7 +++++++ locales/ko-KR/common.json | 2 ++ locales/ko-KR/models.json | 24 ++++++++++++++++++++++++ locales/ko-KR/providers.json | 3 +++ locales/ko-KR/setting.json | 5 +++++ locales/ko-KR/thread.json | 5 +++++ locales/nl-NL/chat.json | 7 +++++++ locales/nl-NL/common.json | 2 ++ locales/nl-NL/models.json | 24 ++++++++++++++++++++++++ locales/nl-NL/providers.json | 3 +++ locales/nl-NL/setting.json | 5 +++++ locales/nl-NL/thread.json | 5 +++++ locales/pl-PL/chat.json | 7 +++++++ locales/pl-PL/common.json | 2 ++ locales/pl-PL/models.json | 24 ++++++++++++++++++++++++ locales/pl-PL/providers.json | 3 +++ locales/pl-PL/setting.json | 5 +++++ locales/pl-PL/thread.json | 5 +++++ locales/pt-BR/chat.json | 7 +++++++ locales/pt-BR/common.json | 2 ++ locales/pt-BR/models.json | 24 ++++++++++++++++++++++++ locales/pt-BR/providers.json | 3 +++ locales/pt-BR/setting.json | 5 +++++ locales/pt-BR/thread.json | 5 +++++ locales/ru-RU/chat.json | 7 +++++++ locales/ru-RU/common.json | 2 ++ locales/ru-RU/models.json | 24 ++++++++++++++++++++++++ locales/ru-RU/providers.json | 3 +++ locales/ru-RU/setting.json | 5 +++++ locales/ru-RU/thread.json | 5 +++++ locales/tr-TR/chat.json | 7 +++++++ locales/tr-TR/common.json | 2 ++ locales/tr-TR/models.json | 24 ++++++++++++++++++++++++ locales/tr-TR/providers.json | 3 +++ locales/tr-TR/setting.json | 5 +++++ locales/tr-TR/thread.json | 5 +++++ locales/vi-VN/chat.json | 7 +++++++ locales/vi-VN/common.json | 2 ++ locales/vi-VN/models.json | 24 ++++++++++++++++++++++++ locales/vi-VN/providers.json | 3 +++ locales/vi-VN/setting.json | 5 +++++ locales/vi-VN/thread.json | 5 +++++ locales/zh-CN/chat.json | 7 +++++++ locales/zh-CN/common.json | 2 ++ locales/zh-CN/models.json | 24 ++++++++++++++++++++++++ locales/zh-CN/providers.json | 3 +++ locales/zh-CN/setting.json | 5 +++++ locales/zh-CN/thread.json | 5 +++++ locales/zh-TW/chat.json | 7 +++++++ locales/zh-TW/common.json | 2 ++ locales/zh-TW/models.json | 24 ++++++++++++++++++++++++ locales/zh-TW/providers.json | 3 +++ locales/zh-TW/setting.json | 5 +++++ locales/zh-TW/thread.json | 5 +++++ 108 files changed, 828 insertions(+) create mode 100644 locales/ar/thread.json create mode 100644 locales/bg-BG/thread.json create mode 100644 locales/de-DE/thread.json create mode 100644 locales/en-US/thread.json create mode 100644 locales/es-ES/thread.json create mode 100644 locales/fa-IR/thread.json create mode 100644 locales/fr-FR/thread.json create mode 100644 locales/it-IT/thread.json create mode 100644 locales/ja-JP/thread.json create mode 100644 locales/ko-KR/thread.json create mode 100644 locales/nl-NL/thread.json create mode 100644 locales/pl-PL/thread.json create mode 100644 locales/pt-BR/thread.json create mode 100644 locales/ru-RU/thread.json create mode 100644 locales/tr-TR/thread.json create mode 100644 locales/vi-VN/thread.json create mode 100644 locales/zh-CN/thread.json create mode 100644 locales/zh-TW/thread.json diff --git a/locales/ar/chat.json b/locales/ar/chat.json index e9ebeaf69314..8261433bf3d6 100644 --- a/locales/ar/chat.json +++ b/locales/ar/chat.json @@ -8,6 +8,7 @@ "agents": "مساعد", "artifact": { "generating": "جاري الإنشاء", + "inThread": "لا يمكن عرض الموضوعات الفرعية، يرجى التبديل إلى منطقة المحادثة الرئيسية لفتحها", "thinking": "جاري التفكير", "thought": "عملية التفكير", "unknownTitle": "عمل غير مسمى" @@ -65,6 +66,7 @@ }, "messageAction": { "delAndRegenerate": "حذف وإعادة الإنشاء", + "deleteDisabledByThreads": "يوجد موضوعات فرعية، لا يمكن الحذف", "regenerate": "إعادة الإنشاء" }, "newAgent": "مساعد جديد", @@ -121,6 +123,11 @@ "loading": "جارٍ التعرف...", "prettifying": "جارٍ التجميل..." }, + "thread": { + "divider": "موضوع فرعي", + "threadMessageCount": "{{messageCount}} رسالة", + "title": "موضوع فرعي" + }, "tokenDetails": { "chats": "رسائل المحادثة", "historySummary": "ملخص التاريخ", diff --git a/locales/ar/common.json b/locales/ar/common.json index 545be4b27642..1e2f594c22f0 100644 --- a/locales/ar/common.json +++ b/locales/ar/common.json @@ -16,6 +16,8 @@ "back": "عودة", "batchDelete": "حذف دفعة", "blog": "مدونة المنتجات", + "branching": "إنشاء موضوع فرعي", + "branchingDisable": "ميزة \"الموضوع الفرعي\" متاحة فقط في إصدار الخادم. إذا كنت بحاجة إلى هذه الميزة، يرجى التبديل إلى وضع نشر الخادم أو استخدام LobeChat Cloud", "cancel": "إلغاء", "changelog": "سجل التغييرات", "close": "إغلاق", diff --git a/locales/ar/models.json b/locales/ar/models.json index 4312d48cdb9e..0d1187a0e4a6 100644 --- a/locales/ar/models.json +++ b/locales/ar/models.json @@ -176,6 +176,15 @@ "Qwen/Qwen2.5-Math-72B-Instruct": { "description": "Qwen2.5-Math يركز على حل المشكلات في مجال الرياضيات، ويقدم إجابات احترافية للأسئلة الصعبة." }, + "Qwen2-72B-Instruct": { + "description": "Qwen2 هو أحدث سلسلة من نموذج Qwen، ويدعم سياقًا يصل إلى 128 ألف، مقارنةً بأفضل النماذج مفتوحة المصدر الحالية، يتفوق Qwen2-72B بشكل ملحوظ في فهم اللغة الطبيعية والمعرفة والترميز والرياضيات والقدرات متعددة اللغات." + }, + "Qwen2-7B-Instruct": { + "description": "Qwen2 هو أحدث سلسلة من نموذج Qwen، قادر على التفوق على النماذج مفتوحة المصدر ذات الحجم المماثل أو حتى النماذج الأكبر حجمًا، حقق Qwen2 7B مزايا ملحوظة في عدة تقييمات، خاصة في فهم الترميز والصينية." + }, + "Qwen2.5-72B-Instruct": { + "description": "يدعم Qwen2.5-72B-Instruct سياقًا يصل إلى 16 ألف، وينتج نصوصًا طويلة تتجاوز 8 آلاف. يدعم استدعاء الوظائف والتفاعل السلس مع الأنظمة الخارجية، مما يعزز بشكل كبير من المرونة وقابلية التوسع. لقد زادت معرفة النموذج بشكل ملحوظ، كما تحسنت قدراته في الترميز والرياضيات بشكل كبير، ويدعم أكثر من 29 لغة." + }, "SenseChat": { "description": "نموذج الإصدار الأساسي (V4)، بطول سياق 4K، يمتلك قدرات قوية وعامة." }, @@ -206,6 +215,9 @@ "Tencent/Hunyuan-A52B-Instruct": { "description": "Hunyuan-Large هو أكبر نموذج MoE مفتوح المصدر في الصناعة، مع 389 مليار إجمالي عدد المعلمات و52 مليار عدد المعلمات النشطة." }, + "Yi-34B-Chat": { + "description": "Yi-1.5-34B، مع الحفاظ على القدرات اللغوية العامة الممتازة للنموذج الأصلي، تم تدريبه بشكل إضافي على 500 مليار توكن عالي الجودة، مما أدى إلى تحسين كبير في المنطق الرياضي وقدرات الترميز." + }, "abab5.5-chat": { "description": "موجه لمشاهد الإنتاجية، يدعم معالجة المهام المعقدة وتوليد النصوص بكفاءة، مناسب للتطبيقات في المجالات المهنية." }, @@ -368,6 +380,9 @@ "codegeex-4": { "description": "CodeGeeX-4 هو مساعد برمجي قوي، يدعم مجموعة متنوعة من لغات البرمجة في الإجابة الذكية وإكمال الشيفرة، مما يعزز من كفاءة التطوير." }, + "codegeex4-all-9b": { + "description": "CodeGeeX4-ALL-9B هو نموذج توليد كود متعدد اللغات، يدعم مجموعة شاملة من الوظائف بما في ذلك إكمال الشيفرات والتوليد، ومفسر الشيفرات، والبحث عبر الإنترنت، واستدعاء الوظائف، وأسئلة وأجوبة على مستوى المستودع، مما يغطي جميع سيناريوهات تطوير البرمجيات. إنه أحد أفضل نماذج توليد الشيفرات بأقل من 10 مليار معلمة." + }, "codegemma": { "description": "CodeGemma هو نموذج لغوي خفيف الوزن مخصص لمهام البرمجة المختلفة، يدعم التكرار السريع والتكامل." }, @@ -422,6 +437,9 @@ "deepseek-chat": { "description": "نموذج مفتوح المصدر الجديد الذي يجمع بين القدرات العامة وقدرات البرمجة، لا يحتفظ فقط بالقدرات الحوارية العامة لنموذج الدردشة الأصلي وقدرات معالجة الشيفرة القوية لنموذج Coder، بل يتماشى أيضًا بشكل أفضل مع تفضيلات البشر. بالإضافة إلى ذلك، حقق DeepSeek-V2.5 تحسينات كبيرة في مهام الكتابة، واتباع التعليمات، وغيرها من المجالات." }, + "deepseek-coder-33B-instruct": { + "description": "DeepSeek Coder 33B هو نموذج لغة برمجية، تم تدريبه على 20 تريليون بيانات، منها 87% كود و13% لغات صينية وإنجليزية. يقدم النموذج حجم نافذة 16K ومهام ملء الفراغ، مما يوفر إكمال الشيفرات على مستوى المشروع ووظائف ملء المقاطع." + }, "deepseek-coder-v2": { "description": "DeepSeek Coder V2 هو نموذج شيفرة مفتوح المصدر من نوع خبير مختلط، يقدم أداءً ممتازًا في مهام الشيفرة، ويضاهي GPT4-Turbo." }, @@ -476,6 +494,9 @@ "gemini-exp-1114": { "description": "جيمني إكسب 1114 هو أحدث نموذج ذكاء اصطناعي متعدد الوسائط تجريبي من Google، يتميز بقدرة معالجة سريعة، ويدعم إدخالات النصوص والصور والفيديو، مما يجعله مناسبًا للتوسع الفعال في مهام متعددة." }, + "gemini-exp-1121": { + "description": "جمني إكسب 1121 هو أحدث نموذج تجريبي متعدد الوسائط من جوجل، يتمتع بقدرة معالجة سريعة، ويدعم إدخال النصوص والصور والفيديو، مما يجعله مناسبًا للتوسع الفعال في مجموعة متنوعة من المهام." + }, "gemma-7b-it": { "description": "Gemma 7B مناسب لمعالجة المهام المتوسطة والصغيرة، ويجمع بين الكفاءة من حيث التكلفة." }, @@ -503,6 +524,9 @@ "glm-4-0520": { "description": "GLM-4-0520 هو أحدث إصدار من النموذج، مصمم للمهام المعقدة والمتنوعة، ويظهر أداءً ممتازًا." }, + "glm-4-9b-chat": { + "description": "يظهر GLM-4-9B-Chat أداءً عاليًا في مجالات متعددة مثل الدلالات والرياضيات والاستدلال والترميز والمعرفة. كما أنه مزود بقدرات تصفح الويب وتنفيذ الشيفرات واستدعاء الأدوات المخصصة واستدلال النصوص الطويلة. يدعم 26 لغة بما في ذلك اليابانية والكورية والألمانية." + }, "glm-4-air": { "description": "GLM-4-Air هو إصدار ذو قيمة عالية، يتمتع بأداء قريب من GLM-4، ويقدم سرعة عالية وسعرًا معقولًا." }, diff --git a/locales/ar/providers.json b/locales/ar/providers.json index 4df504e9e9ee..57fbf48f1df8 100644 --- a/locales/ar/providers.json +++ b/locales/ar/providers.json @@ -22,6 +22,9 @@ "fireworksai": { "description": "Fireworks AI هي شركة رائدة في تقديم خدمات نماذج اللغة المتقدمة، تركز على استدعاء الوظائف والمعالجة متعددة الوسائط. نموذجها الأحدث Firefunction V2 مبني على Llama-3، مُحسّن لاستدعاء الوظائف، والحوار، واتباع التعليمات. يدعم نموذج اللغة البصرية FireLLaVA-13B إدخال الصور والنصوص المختلطة. تشمل النماذج البارزة الأخرى سلسلة Llama وسلسلة Mixtral، مما يوفر دعمًا فعالًا لاتباع التعليمات وتوليدها بلغات متعددة." }, + "giteeai": { + "description": "تقدم واجهة برمجة التطبيقات الخالية من الخادم لـ Gitee AI خدمات واجهة برمجة التطبيقات لاستدلال النماذج الكبيرة جاهزة للاستخدام لمطوري الذكاء الاصطناعي." + }, "github": { "description": "مع نماذج GitHub، يمكن للمطورين أن يصبحوا مهندسي ذكاء اصطناعي ويبنون باستخدام نماذج الذكاء الاصطناعي الرائدة في الصناعة." }, diff --git a/locales/ar/setting.json b/locales/ar/setting.json index 22d305ec75ae..55edc2a60e54 100644 --- a/locales/ar/setting.json +++ b/locales/ar/setting.json @@ -389,6 +389,11 @@ "modelDesc": "نموذج مخصص لتحسين أسئلة المستخدمين", "title": "إعادة صياغة سؤال قاعدة المعرفة" }, + "thread": { + "label": "نموذج تسمية الموضوعات الفرعية", + "modelDesc": "نموذج مخصص لإعادة تسمية الموضوعات الفرعية تلقائيًا", + "title": "تسمية الموضوعات الفرعية تلقائيًا" + }, "title": "مساعد النظام", "topic": { "label": "نموذج تسمية الموضوع", diff --git a/locales/ar/thread.json b/locales/ar/thread.json new file mode 100644 index 000000000000..619f38c63348 --- /dev/null +++ b/locales/ar/thread.json @@ -0,0 +1,5 @@ +{ + "actions": { + "confirmRemoveThread": "سيتم حذف هذا الموضوع الفرعي، ولن يمكن استعادته بعد الحذف، يرجى توخي الحذر." + } +} diff --git a/locales/bg-BG/chat.json b/locales/bg-BG/chat.json index 81f6d664cf2e..b20a5c765b06 100644 --- a/locales/bg-BG/chat.json +++ b/locales/bg-BG/chat.json @@ -8,6 +8,7 @@ "agents": "Асистент", "artifact": { "generating": "Генериране", + "inThread": "Не можете да видите в подтемата, моля, превключете към основната дискусия.", "thinking": "В процес на мислене", "thought": "Процес на мислене", "unknownTitle": "Неназован артефакт" @@ -65,6 +66,7 @@ }, "messageAction": { "delAndRegenerate": "Изтрий и прегенерирай", + "deleteDisabledByThreads": "Съществуват подтеми, не можете да изтриете.", "regenerate": "Прегенерирай" }, "newAgent": "Нов агент", @@ -121,6 +123,11 @@ "loading": "Разпознаване...", "prettifying": "Изглаждане..." }, + "thread": { + "divider": "Подтема", + "threadMessageCount": "{{messageCount}} съобщения", + "title": "Подтема" + }, "tokenDetails": { "chats": "Чат съобщения", "historySummary": "Историческо резюме", diff --git a/locales/bg-BG/common.json b/locales/bg-BG/common.json index a93f47668f72..160856958faa 100644 --- a/locales/bg-BG/common.json +++ b/locales/bg-BG/common.json @@ -16,6 +16,8 @@ "back": "Назад", "batchDelete": "Пакетно изтриване", "blog": "Продуктов блог", + "branching": "Създаване на подтема", + "branchingDisable": "Функцията „подтема“ е налична само в сървърната версия. Ако искате да използвате тази функция, моля, превключете на режим на сървърно разполагане или използвайте LobeChat Cloud.", "cancel": "Отказ", "changelog": "Дневник на промените", "close": "Затвори", diff --git a/locales/bg-BG/models.json b/locales/bg-BG/models.json index 85bf28ee7aa2..a496cc5817b3 100644 --- a/locales/bg-BG/models.json +++ b/locales/bg-BG/models.json @@ -176,6 +176,15 @@ "Qwen/Qwen2.5-Math-72B-Instruct": { "description": "Qwen2.5-Math се фокусира върху решаването на математически проблеми, предоставяйки професионални отговори на трудни задачи." }, + "Qwen2-72B-Instruct": { + "description": "Qwen2 е най-новата серия на модела Qwen, поддържаща 128k контекст. В сравнение с текущите най-добри отворени модели, Qwen2-72B значително надминава водещите модели в области като разбиране на естествен език, знания, код, математика и многоезичност." + }, + "Qwen2-7B-Instruct": { + "description": "Qwen2 е най-новата серия на модела Qwen, способен да надмине оптималните отворени модели с равен размер или дори по-големи модели. Qwen2 7B постига значителни предимства в множество тестове, особено в разбирането на код и китайския език." + }, + "Qwen2.5-72B-Instruct": { + "description": "Qwen2.5-72B-Instruct поддържа 16k контекст, генерира дълги текстове над 8K. Поддържа функция за извикване и безпроблемна интеграция с външни системи, значително увеличаваща гъвкавостта и разширяемостта. Моделът има значително увеличени знания и значително подобрени способности в кодиране и математика, с поддръжка на над 29 езика." + }, "SenseChat": { "description": "Основна версия на модела (V4), с контекстна дължина 4K, с мощни общи способности." }, @@ -206,6 +215,9 @@ "Tencent/Hunyuan-A52B-Instruct": { "description": "Hunyuan-Large е най-голямата отворена трансформаторна архитектура MoE в индустрията, с общо 3890 милиарда параметри и 52 милиарда активни параметри." }, + "Yi-34B-Chat": { + "description": "Yi-1.5-34B значително подобрява математическата логика и способностите в кодирането, като запазва отличните общи езикови способности на оригиналната серия модели, чрез инкрементално обучение с 500 милиарда висококачествени токени." + }, "abab5.5-chat": { "description": "Насочена към производствени сценарии, поддържаща обработка на сложни задачи и ефективно генериране на текст, подходяща за професионални приложения." }, @@ -368,6 +380,9 @@ "codegeex-4": { "description": "CodeGeeX-4 е мощен AI помощник за програмиране, който поддържа интелигентни въпроси и отговори и автоматично допълване на код за различни програмни езици, повишавайки ефективността на разработката." }, + "codegeex4-all-9b": { + "description": "CodeGeeX4-ALL-9B е многоезичен модел за генериране на код, който предлага пълни функции, включително попълване и генериране на код, интерпретатор на код, уеб търсене, извикване на функции и въпроси и отговори на ниво хранилище, обхващащ различни сценарии на софтуерна разработка. Това е водещ модел за генериране на код с по-малко от 10B параметри." + }, "codegemma": { "description": "CodeGemma е лек езиков модел, специализиран в различни програмни задачи, поддържащ бърза итерация и интеграция." }, @@ -422,6 +437,9 @@ "deepseek-chat": { "description": "Новооткритият отворен модел, който съчетава общи и кодови способности, не само запазва общата диалогова способност на оригиналния Chat модел и мощната способност за обработка на код на Coder модела, но също така по-добре се съгласува с човешките предпочитания. Освен това, DeepSeek-V2.5 постигна значителни подобрения в писателските задачи, следването на инструкции и много други области." }, + "deepseek-coder-33B-instruct": { + "description": "DeepSeek Coder 33B е модел за кодови езици, обучен на 20 трилиона данни, от които 87% са код и 13% са на китайски и английски. Моделът въвежда размер на прозореца от 16K и задачи за попълване, предоставяйки функции за попълване на код на проектно ниво и попълване на фрагменти." + }, "deepseek-coder-v2": { "description": "DeepSeek Coder V2 е отворен хибриден експертен кодов модел, който се представя отлично в кодовите задачи, сравним с GPT4-Turbo." }, @@ -476,6 +494,9 @@ "gemini-exp-1114": { "description": "Gemini Exp 1114 е най-новият експериментален многомодален AI модел на Google, който предлага бърза обработка и поддържа вход от текст, изображения и видео, подходящ за ефективно разширение на множество задачи." }, + "gemini-exp-1121": { + "description": "Gemini Exp 1121 е най-новият експериментален мултимодален AI модел на Google, който предлага бърза обработка и поддържа текстови, изображенчески и видео входове, подходящ за ефективно разширяване на множество задачи." + }, "gemma-7b-it": { "description": "Gemma 7B е подходяща за обработка на средни и малки задачи, съчетаваща икономичност." }, @@ -503,6 +524,9 @@ "glm-4-0520": { "description": "GLM-4-0520 е най-новата версия на модела, проектирана за високо сложни и разнообразни задачи, с отлични резултати." }, + "glm-4-9b-chat": { + "description": "GLM-4-9B-Chat показва висока производителност в множество области, включително семантика, математика, логическо разсъждение, код и знания. Също така предлага уеб браузинг, изпълнение на код, извикване на персонализирани инструменти и разсъждение върху дълги текстове. Поддържа 26 езика, включително японски, корейски и немски." + }, "glm-4-air": { "description": "GLM-4-Air е икономичен вариант, с производителност близка до GLM-4, предлагаща бързина и достъпна цена." }, diff --git a/locales/bg-BG/providers.json b/locales/bg-BG/providers.json index 30759a9154e0..cae9b9a080a6 100644 --- a/locales/bg-BG/providers.json +++ b/locales/bg-BG/providers.json @@ -22,6 +22,9 @@ "fireworksai": { "description": "Fireworks AI е водещ доставчик на напреднали езикови модели, фокусирайки се върху извикване на функции и мултимодална обработка. Най-новият им модел Firefunction V2, базиран на Llama-3, е оптимизиран за извикване на функции, диалози и следване на инструкции. Визуалният езиков модел FireLLaVA-13B поддържа смесени входове от изображения и текст. Други забележителни модели включват серията Llama и серията Mixtral, предлагащи ефективна поддръжка за многоезично следване на инструкции и генериране." }, + "giteeai": { + "description": "Сървърless API на Gitee AI предоставя на разработчиците на AI готови за употреба API услуги за инференция с големи модели." + }, "github": { "description": "С моделите на GitHub разработчиците могат да станат AI инженери и да изграждат с водещите AI модели в индустрията." }, diff --git a/locales/bg-BG/setting.json b/locales/bg-BG/setting.json index 7e144703733f..0f5882167056 100644 --- a/locales/bg-BG/setting.json +++ b/locales/bg-BG/setting.json @@ -389,6 +389,11 @@ "modelDesc": "Определя модел за оптимизиране на запитванията на потребителите", "title": "Пренаписване на въпроси от базата данни" }, + "thread": { + "label": "Модел за именуване на подтеми", + "modelDesc": "Модел, предназначен за автоматично преименуване на подтеми", + "title": "Автоматично именуване на подтеми" + }, "title": "Системен асистент", "topic": { "label": "Модел за именуване на теми", diff --git a/locales/bg-BG/thread.json b/locales/bg-BG/thread.json new file mode 100644 index 000000000000..a3bb48d00a53 --- /dev/null +++ b/locales/bg-BG/thread.json @@ -0,0 +1,5 @@ +{ + "actions": { + "confirmRemoveThread": "Ще изтриете тази подтема. След изтриването ѝ няма да може да бъде възстановена, моля, бъдете внимателни." + } +} diff --git a/locales/de-DE/chat.json b/locales/de-DE/chat.json index dab75e171842..3e6085a3c7d0 100644 --- a/locales/de-DE/chat.json +++ b/locales/de-DE/chat.json @@ -8,6 +8,7 @@ "agents": "Assistent", "artifact": { "generating": "Wird generiert", + "inThread": "In Unterthemen kann nicht angezeigt werden, bitte wechseln Sie zum Hauptdiskussionsbereich.", "thinking": "Denken", "thought": "Denkenprozess", "unknownTitle": "Unbenanntes Werk" @@ -65,6 +66,7 @@ }, "messageAction": { "delAndRegenerate": "Löschen und neu generieren", + "deleteDisabledByThreads": "Es gibt Unterthemen, die Löschung ist nicht möglich.", "regenerate": "Neu generieren" }, "newAgent": "Neuer Assistent", @@ -121,6 +123,11 @@ "loading": "Erkenne...", "prettifying": "Verschönern..." }, + "thread": { + "divider": "Unterthema", + "threadMessageCount": "{{messageCount}} Nachrichten", + "title": "Unterthema" + }, "tokenDetails": { "chats": "Chats", "historySummary": "Historische Zusammenfassung", diff --git a/locales/de-DE/common.json b/locales/de-DE/common.json index df1977a41068..b1d9c6fc4188 100644 --- a/locales/de-DE/common.json +++ b/locales/de-DE/common.json @@ -16,6 +16,8 @@ "back": "Zurück", "batchDelete": "Massenlöschung", "blog": "Produkt-Blog", + "branching": "Unterthema erstellen", + "branchingDisable": "Die Funktion „Unterthema“ ist nur in der Serverversion verfügbar. Wenn Sie diese Funktion benötigen, wechseln Sie bitte in den Serverbereitstellungsmodus oder verwenden Sie LobeChat Cloud.", "cancel": "Abbrechen", "changelog": "Änderungsprotokoll", "close": "Schließen", diff --git a/locales/de-DE/models.json b/locales/de-DE/models.json index 16d770c0deeb..69ed03ae9d18 100644 --- a/locales/de-DE/models.json +++ b/locales/de-DE/models.json @@ -176,6 +176,15 @@ "Qwen/Qwen2.5-Math-72B-Instruct": { "description": "Qwen2.5-Math konzentriert sich auf die Problemlösung im Bereich Mathematik und bietet professionelle Lösungen für schwierige Aufgaben." }, + "Qwen2-72B-Instruct": { + "description": "Qwen2 ist die neueste Reihe des Qwen-Modells, das 128k Kontext unterstützt. Im Vergleich zu den derzeit besten Open-Source-Modellen übertrifft Qwen2-72B in den Bereichen natürliche Sprachverständnis, Wissen, Code, Mathematik und Mehrsprachigkeit deutlich die führenden Modelle." + }, + "Qwen2-7B-Instruct": { + "description": "Qwen2 ist die neueste Reihe des Qwen-Modells, das in der Lage ist, die besten Open-Source-Modelle ähnlicher Größe oder sogar größerer Modelle zu übertreffen. Qwen2 7B hat in mehreren Bewertungen signifikante Vorteile erzielt, insbesondere im Bereich Code und Verständnis der chinesischen Sprache." + }, + "Qwen2.5-72B-Instruct": { + "description": "Qwen2.5-72B-Instruct unterstützt 16k Kontext und generiert lange Texte über 8K. Es unterstützt Funktionsaufrufe und nahtlose Interaktionen mit externen Systemen, was die Flexibilität und Skalierbarkeit erheblich verbessert. Das Wissen des Modells hat deutlich zugenommen, und die Codierungs- und mathematischen Fähigkeiten wurden erheblich verbessert, mit Unterstützung für über 29 Sprachen." + }, "SenseChat": { "description": "Basisversion des Modells (V4) mit 4K Kontextlänge, die über starke allgemeine Fähigkeiten verfügt." }, @@ -206,6 +215,9 @@ "Tencent/Hunyuan-A52B-Instruct": { "description": "Hunyuan-Large ist das größte Open-Source-Transformer-Architektur MoE-Modell der Branche mit insgesamt 389 Milliarden Parametern und 52 Milliarden aktiven Parametern." }, + "Yi-34B-Chat": { + "description": "Yi-1.5-34B hat die hervorragenden allgemeinen Sprachfähigkeiten des ursprünglichen Modells beibehalten und durch inkrementelles Training von 500 Milliarden hochwertigen Tokens die mathematische Logik und Codierungsfähigkeiten erheblich verbessert." + }, "abab5.5-chat": { "description": "Für produktivitätsorientierte Szenarien konzipiert, unterstützt es die Verarbeitung komplexer Aufgaben und die effiziente Textgenerierung, geeignet für professionelle Anwendungen." }, @@ -368,6 +380,9 @@ "codegeex-4": { "description": "CodeGeeX-4 ist ein leistungsstarker AI-Programmierassistent, der intelligente Fragen und Codevervollständigung in verschiedenen Programmiersprachen unterstützt und die Entwicklungseffizienz steigert." }, + "codegeex4-all-9b": { + "description": "CodeGeeX4-ALL-9B ist ein mehrsprachiges Code-Generierungsmodell, das umfassende Funktionen unterstützt, darunter Code-Vervollständigung und -Generierung, Code-Interpreter, Websuche, Funktionsaufrufe und repository-weite Codefragen und -antworten, und deckt verschiedene Szenarien der Softwareentwicklung ab. Es ist das führende Code-Generierungsmodell mit weniger als 10B Parametern." + }, "codegemma": { "description": "CodeGemma ist ein leichtgewichtiges Sprachmodell, das speziell für verschiedene Programmieraufgaben entwickelt wurde und schnelle Iterationen und Integrationen unterstützt." }, @@ -422,6 +437,9 @@ "deepseek-chat": { "description": "Ein neues Open-Source-Modell, das allgemeine und Codefähigkeiten kombiniert. Es bewahrt nicht nur die allgemeinen Dialogfähigkeiten des ursprünglichen Chat-Modells und die leistungsstarken Codeverarbeitungsfähigkeiten des Coder-Modells, sondern stimmt auch besser mit menschlichen Präferenzen überein. Darüber hinaus hat DeepSeek-V2.5 in mehreren Bereichen wie Schreibaufgaben und Befolgung von Anweisungen erhebliche Verbesserungen erzielt." }, + "deepseek-coder-33B-instruct": { + "description": "DeepSeek Coder 33B ist ein Code-Sprachmodell, das auf 20 Billionen Daten trainiert wurde, von denen 87 % Code und 13 % in Chinesisch und Englisch sind. Das Modell führt eine Fenstergröße von 16K und Aufgaben zur Lückenergänzung ein und bietet projektbezogene Code-Vervollständigung und Fragmentfüllfunktionen." + }, "deepseek-coder-v2": { "description": "DeepSeek Coder V2 ist ein Open-Source-Mischexperten-Code-Modell, das in Codeaufgaben hervorragende Leistungen erbringt und mit GPT4-Turbo vergleichbar ist." }, @@ -476,6 +494,9 @@ "gemini-exp-1114": { "description": "Gemini Exp 1114 ist Googles neuestes experimentelles multimodales KI-Modell, das über eine schnelle Verarbeitungskapazität verfügt und Texte, Bilder und Videoeingaben unterstützt, um eine effiziente Skalierung für verschiedene Aufgaben zu ermöglichen." }, + "gemini-exp-1121": { + "description": "Gemini Exp 1121 ist Googles neuestes experimentelles multimodales KI-Modell, das über eine schnelle Verarbeitungskapazität verfügt und Texte, Bilder und Videoeingaben unterstützt, um eine effiziente Skalierung für verschiedene Aufgaben zu ermöglichen." + }, "gemma-7b-it": { "description": "Gemma 7B eignet sich für die Verarbeitung von mittelgroßen Aufgaben und bietet ein gutes Kosten-Nutzen-Verhältnis." }, @@ -503,6 +524,9 @@ "glm-4-0520": { "description": "GLM-4-0520 ist die neueste Modellversion, die für hochkomplexe und vielfältige Aufgaben konzipiert wurde und hervorragende Leistungen zeigt." }, + "glm-4-9b-chat": { + "description": "GLM-4-9B-Chat zeigt in den Bereichen Semantik, Mathematik, Schlussfolgerungen, Code und Wissen eine hohe Leistung. Es verfügt auch über Funktionen wie Web-Browsing, Code-Ausführung, benutzerdefinierte Toolaufrufe und langes Textverständnis. Es unterstützt 26 Sprachen, darunter Japanisch, Koreanisch und Deutsch." + }, "glm-4-air": { "description": "GLM-4-Air ist eine kosteneffiziente Version, die in der Leistung nahe am GLM-4 liegt und schnelle Geschwindigkeiten zu einem erschwinglichen Preis bietet." }, diff --git a/locales/de-DE/providers.json b/locales/de-DE/providers.json index 0c32117fb2c3..d46435d3240a 100644 --- a/locales/de-DE/providers.json +++ b/locales/de-DE/providers.json @@ -22,6 +22,9 @@ "fireworksai": { "description": "Fireworks AI ist ein führender Anbieter von fortschrittlichen Sprachmodellen, der sich auf Funktionsaufrufe und multimodale Verarbeitung spezialisiert hat. Ihr neuestes Modell, Firefunction V2, basiert auf Llama-3 und ist für Funktionsaufrufe, Dialoge und Befehlsbefolgung optimiert. Das visuelle Sprachmodell FireLLaVA-13B unterstützt gemischte Eingaben von Bildern und Text. Weitere bemerkenswerte Modelle sind die Llama-Serie und die Mixtral-Serie, die effiziente mehrsprachige Befehlsbefolgung und Generierungsunterstützung bieten." }, + "giteeai": { + "description": "Die Serverless API von Gitee AI bietet KI-Entwicklern sofort einsatzbereite API-Dienste für die Inferenz großer Modelle." + }, "github": { "description": "Mit GitHub-Modellen können Entwickler zu KI-Ingenieuren werden und mit den führenden KI-Modellen der Branche arbeiten." }, diff --git a/locales/de-DE/setting.json b/locales/de-DE/setting.json index d0a071e90661..d8c322aae7e6 100644 --- a/locales/de-DE/setting.json +++ b/locales/de-DE/setting.json @@ -389,6 +389,11 @@ "modelDesc": "Modell zur Optimierung der Benutzeranfragen", "title": "Wiederformulierung von Fragen aus der Wissensdatenbank" }, + "thread": { + "label": "Unterthema-Namensmodell", + "modelDesc": "Modell zur automatischen Umbenennung von Unterthemen", + "title": "Automatische Benennung von Unterthemen" + }, "title": "Systemassistent", "topic": { "label": "Themenbenennungsmodell", diff --git a/locales/de-DE/thread.json b/locales/de-DE/thread.json new file mode 100644 index 000000000000..110e53f447b8 --- /dev/null +++ b/locales/de-DE/thread.json @@ -0,0 +1,5 @@ +{ + "actions": { + "confirmRemoveThread": "Sie sind dabei, dieses Unterthema zu löschen. Nach dem Löschen kann es nicht wiederhergestellt werden. Bitte seien Sie vorsichtig." + } +} diff --git a/locales/en-US/chat.json b/locales/en-US/chat.json index ce5af299b75d..b839dd14b0c9 100644 --- a/locales/en-US/chat.json +++ b/locales/en-US/chat.json @@ -8,6 +8,7 @@ "agents": "Assistants", "artifact": { "generating": "Generating", + "inThread": "Cannot view in subtopic, please switch to the main conversation area to open", "thinking": "Thinking", "thought": "Thought Process", "unknownTitle": "Untitled Work" @@ -65,6 +66,7 @@ }, "messageAction": { "delAndRegenerate": "Delete and Regenerate", + "deleteDisabledByThreads": "There are subtopics, deletion is not allowed", "regenerate": "Regenerate" }, "newAgent": "New Assistant", @@ -121,6 +123,11 @@ "loading": "Recognizing...", "prettifying": "Polishing..." }, + "thread": { + "divider": "Subtopic", + "threadMessageCount": "{{messageCount}} messages", + "title": "Subtopic" + }, "tokenDetails": { "chats": "Chat Messages", "historySummary": "History Summary", diff --git a/locales/en-US/common.json b/locales/en-US/common.json index 41a5c32ea73c..279574b1bbc1 100644 --- a/locales/en-US/common.json +++ b/locales/en-US/common.json @@ -16,6 +16,8 @@ "back": "Back", "batchDelete": "Batch Delete", "blog": "Product Blog", + "branching": "Create Subtopic", + "branchingDisable": "The 'Subtopic' feature is only available in the server version. If you need this feature, please switch to server deployment mode or use LobeChat Cloud.", "cancel": "Cancel", "changelog": "Changelog", "close": "Close", diff --git a/locales/en-US/models.json b/locales/en-US/models.json index c002c472d7bb..24fe9d6ec21f 100644 --- a/locales/en-US/models.json +++ b/locales/en-US/models.json @@ -176,6 +176,15 @@ "Qwen/Qwen2.5-Math-72B-Instruct": { "description": "Qwen2.5-Math focuses on problem-solving in the field of mathematics, providing expert solutions for challenging problems." }, + "Qwen2-72B-Instruct": { + "description": "Qwen2 is the latest series of the Qwen model, supporting 128k context. Compared to the current best open-source models, Qwen2-72B significantly surpasses leading models in natural language understanding, knowledge, coding, mathematics, and multilingual capabilities." + }, + "Qwen2-7B-Instruct": { + "description": "Qwen2 is the latest series of the Qwen model, capable of outperforming optimal open-source models of similar size and even larger models. Qwen2 7B has achieved significant advantages in multiple evaluations, especially in coding and Chinese comprehension." + }, + "Qwen2.5-72B-Instruct": { + "description": "Qwen2.5-72B-Instruct supports 16k context and generates long texts exceeding 8K. It enables seamless interaction with external systems through function calls, greatly enhancing flexibility and scalability. The model's knowledge has significantly increased, and its coding and mathematical abilities have been greatly improved, with multilingual support for over 29 languages." + }, "SenseChat": { "description": "Basic version model (V4) with a context length of 4K, featuring strong general capabilities." }, @@ -206,6 +215,9 @@ "Tencent/Hunyuan-A52B-Instruct": { "description": "Hunyuan-Large is the industry's largest open-source Transformer architecture MoE model, with a total of 389 billion parameters and 52 billion active parameters." }, + "Yi-34B-Chat": { + "description": "Yi-1.5-34B significantly enhances mathematical logic and coding abilities by incrementally training on 500 billion high-quality tokens while maintaining the excellent general language capabilities of the original series." + }, "abab5.5-chat": { "description": "Targeted at productivity scenarios, supporting complex task processing and efficient text generation, suitable for professional applications." }, @@ -368,6 +380,9 @@ "codegeex-4": { "description": "CodeGeeX-4 is a powerful AI programming assistant that supports intelligent Q&A and code completion in various programming languages, enhancing development efficiency." }, + "codegeex4-all-9b": { + "description": "CodeGeeX4-ALL-9B is a multilingual code generation model that supports comprehensive functions including code completion and generation, code interpretation, web search, function calls, and repository-level code Q&A, covering various scenarios in software development. It is a top-tier code generation model with fewer than 10B parameters." + }, "codegemma": { "description": "CodeGemma is a lightweight language model dedicated to various programming tasks, supporting rapid iteration and integration." }, @@ -422,6 +437,9 @@ "deepseek-chat": { "description": "A new open-source model that integrates general and coding capabilities, retaining the general conversational abilities of the original Chat model and the powerful code handling capabilities of the Coder model, while better aligning with human preferences. Additionally, DeepSeek-V2.5 has achieved significant improvements in writing tasks, instruction following, and more." }, + "deepseek-coder-33B-instruct": { + "description": "DeepSeek Coder 33B is a code language model trained on 20 trillion data points, of which 87% are code and 13% are in Chinese and English. The model introduces a 16K window size and fill-in-the-blank tasks, providing project-level code completion and snippet filling capabilities." + }, "deepseek-coder-v2": { "description": "DeepSeek Coder V2 is an open-source hybrid expert code model that performs excellently in coding tasks, comparable to GPT4-Turbo." }, @@ -476,6 +494,9 @@ "gemini-exp-1114": { "description": "Gemini Exp 1114 is Google's latest experimental multimodal AI model, featuring rapid processing capabilities and supporting text, image, and video inputs, making it suitable for efficient scaling across various tasks." }, + "gemini-exp-1121": { + "description": "Gemini Exp 1121 is Google's latest experimental multimodal AI model, featuring rapid processing capabilities and supporting text, image, and video inputs, making it efficient for a variety of tasks." + }, "gemma-7b-it": { "description": "Gemma 7B is suitable for medium to small-scale task processing, offering cost-effectiveness." }, @@ -503,6 +524,9 @@ "glm-4-0520": { "description": "GLM-4-0520 is the latest model version designed for highly complex and diverse tasks, demonstrating outstanding performance." }, + "glm-4-9b-chat": { + "description": "GLM-4-9B-Chat demonstrates high performance across various aspects, including semantics, mathematics, reasoning, coding, and knowledge. It also features web browsing, code execution, custom tool invocation, and long text reasoning, supporting 26 languages including Japanese, Korean, and German." + }, "glm-4-air": { "description": "GLM-4-Air is a cost-effective version with performance close to GLM-4, offering fast speed at an affordable price." }, diff --git a/locales/en-US/providers.json b/locales/en-US/providers.json index c31daee63896..ab97a63e599b 100644 --- a/locales/en-US/providers.json +++ b/locales/en-US/providers.json @@ -22,6 +22,9 @@ "fireworksai": { "description": "Fireworks AI is a leading provider of advanced language model services, focusing on functional calling and multimodal processing. Its latest model, Firefunction V2, is based on Llama-3, optimized for function calling, conversation, and instruction following. The visual language model FireLLaVA-13B supports mixed input of images and text. Other notable models include the Llama series and Mixtral series, providing efficient multilingual instruction following and generation support." }, + "giteeai": { + "description": "Gitee AI's Serverless API provides ready-to-use large model inference API services for AI developers." + }, "github": { "description": "With GitHub Models, developers can become AI engineers and leverage the industry's leading AI models." }, diff --git a/locales/en-US/setting.json b/locales/en-US/setting.json index 5f29e6b4b06f..d5f8427c5b81 100644 --- a/locales/en-US/setting.json +++ b/locales/en-US/setting.json @@ -389,6 +389,11 @@ "modelDesc": "Specify the model used to optimize user inquiries", "title": "Knowledge Base Question Rewrite" }, + "thread": { + "label": "Subtopic Naming Model", + "modelDesc": "The model designated for automatic renaming of subtopics", + "title": "Automatic Subtopic Naming" + }, "title": "System Assistants", "topic": { "label": "Topic Naming Model", diff --git a/locales/en-US/thread.json b/locales/en-US/thread.json new file mode 100644 index 000000000000..6b6a0520620d --- /dev/null +++ b/locales/en-US/thread.json @@ -0,0 +1,5 @@ +{ + "actions": { + "confirmRemoveThread": "You are about to delete this subtopic. Once deleted, it cannot be recovered. Please proceed with caution." + } +} diff --git a/locales/es-ES/chat.json b/locales/es-ES/chat.json index 31c1d2b66098..30e4dfe1dd31 100644 --- a/locales/es-ES/chat.json +++ b/locales/es-ES/chat.json @@ -8,6 +8,7 @@ "agents": "Asistente", "artifact": { "generating": "Generando", + "inThread": "No se puede ver en el subtema, cambie a la zona de conversación principal para abrirlo", "thinking": "Pensando", "thought": "Proceso de pensamiento", "unknownTitle": "Obra sin título" @@ -65,6 +66,7 @@ }, "messageAction": { "delAndRegenerate": "Eliminar y Regenerar", + "deleteDisabledByThreads": "Existen subtemas, no se puede eliminar", "regenerate": "Regenerar" }, "newAgent": "Nuevo asistente", @@ -121,6 +123,11 @@ "loading": "Reconociendo...", "prettifying": "Embelleciendo..." }, + "thread": { + "divider": "Subtema", + "threadMessageCount": "{{messageCount}} mensajes", + "title": "Subtema" + }, "tokenDetails": { "chats": "Mensajes de chat", "historySummary": "Resumen histórico", diff --git a/locales/es-ES/common.json b/locales/es-ES/common.json index f1dcd1af5db5..16d4d92cf1f1 100644 --- a/locales/es-ES/common.json +++ b/locales/es-ES/common.json @@ -16,6 +16,8 @@ "back": "Volver", "batchDelete": "Eliminar en lote", "blog": "Blog de productos", + "branching": "Crear subtemas", + "branchingDisable": "La función de «subtemas» solo está disponible en la versión del servidor. Si necesita esta función, cambie al modo de implementación del servidor o utilice LobeChat Cloud.", "cancel": "Cancelar", "changelog": "Registro de cambios", "close": "Cerrar", diff --git a/locales/es-ES/models.json b/locales/es-ES/models.json index 6a6ffeb73544..a4b56a4b3fe8 100644 --- a/locales/es-ES/models.json +++ b/locales/es-ES/models.json @@ -176,6 +176,15 @@ "Qwen/Qwen2.5-Math-72B-Instruct": { "description": "Qwen2.5-Math se centra en la resolución de problemas en el ámbito de las matemáticas, proporcionando respuestas profesionales a preguntas de alta dificultad." }, + "Qwen2-72B-Instruct": { + "description": "Qwen2 es la última serie del modelo Qwen, que admite un contexto de 128k. En comparación con los modelos de código abierto más óptimos actuales, Qwen2-72B supera significativamente a los modelos líderes actuales en comprensión del lenguaje natural, conocimiento, código, matemáticas y capacidades multilingües." + }, + "Qwen2-7B-Instruct": { + "description": "Qwen2 es la última serie del modelo Qwen, capaz de superar a los modelos de código abierto de tamaño equivalente e incluso a modelos de mayor tamaño. Qwen2 7B ha logrado ventajas significativas en múltiples evaluaciones, especialmente en comprensión de código y chino." + }, + "Qwen2.5-72B-Instruct": { + "description": "Qwen2.5-72B-Instruct admite un contexto de 16k, generando textos largos de más de 8K. Soporta llamadas a funciones e interacción sin problemas con sistemas externos, lo que mejora enormemente la flexibilidad y escalabilidad. El conocimiento del modelo ha aumentado significativamente, y se ha mejorado considerablemente la capacidad de codificación y matemáticas, con soporte para más de 29 idiomas." + }, "SenseChat": { "description": "Modelo de versión básica (V4), longitud de contexto de 4K, con potentes capacidades generales." }, @@ -206,6 +215,9 @@ "Tencent/Hunyuan-A52B-Instruct": { "description": "Hunyuan-Large es el modelo MoE de Transformer de código abierto más grande de la industria, con un total de 389 mil millones de parámetros y 52 mil millones de parámetros activados." }, + "Yi-34B-Chat": { + "description": "Yi-1.5-34B, manteniendo la excelente capacidad de lenguaje general de la serie original, ha mejorado significativamente la lógica matemática y la capacidad de codificación mediante un entrenamiento incremental de 500 mil millones de tokens de alta calidad." + }, "abab5.5-chat": { "description": "Orientado a escenarios de productividad, admite el procesamiento de tareas complejas y la generación eficiente de texto, adecuado para aplicaciones en campos profesionales." }, @@ -368,6 +380,9 @@ "codegeex-4": { "description": "CodeGeeX-4 es un potente asistente de programación AI, que admite preguntas y respuestas inteligentes y autocompletado de código en varios lenguajes de programación, mejorando la eficiencia del desarrollo." }, + "codegeex4-all-9b": { + "description": "CodeGeeX4-ALL-9B es un modelo de generación de código multilingüe, que admite funciones completas, incluyendo autocompletado y generación de código, intérprete de código, búsqueda en la web, llamadas a funciones y preguntas y respuestas de código a nivel de repositorio, cubriendo diversos escenarios de desarrollo de software. Es un modelo de generación de código de primer nivel con menos de 10B de parámetros." + }, "codegemma": { "description": "CodeGemma es un modelo de lenguaje ligero especializado en diversas tareas de programación, que admite iteraciones rápidas e integración." }, @@ -422,6 +437,9 @@ "deepseek-chat": { "description": "Un nuevo modelo de código abierto que fusiona capacidades generales y de codificación, que no solo conserva la capacidad de diálogo general del modelo Chat original y la potente capacidad de procesamiento de código del modelo Coder, sino que también se alinea mejor con las preferencias humanas. Además, DeepSeek-V2.5 ha logrado mejoras significativas en tareas de escritura, seguimiento de instrucciones y más." }, + "deepseek-coder-33B-instruct": { + "description": "DeepSeek Coder 33B es un modelo de lenguaje de código, entrenado con 20 billones de datos, de los cuales el 87% son código y el 13% son lenguajes en chino e inglés. El modelo introduce un tamaño de ventana de 16K y tareas de llenado de espacios, proporcionando funciones de autocompletado de código a nivel de proyecto y llenado de fragmentos." + }, "deepseek-coder-v2": { "description": "DeepSeek Coder V2 es un modelo de código de expertos híbrido de código abierto, que destaca en tareas de codificación, comparable a GPT4-Turbo." }, @@ -476,6 +494,9 @@ "gemini-exp-1114": { "description": "Gemini Exp 1114 es el modelo de IA multimodal experimental más reciente de Google, que cuenta con una capacidad de procesamiento rápido y admite entradas de texto, imagen y video, adecuado para una amplia gama de tareas de manera eficiente." }, + "gemini-exp-1121": { + "description": "Gemini Exp 1121 es el último modelo experimental de IA multimodal de Google, que cuenta con una capacidad de procesamiento rápido y admite entradas de texto, imágenes y videos, adecuado para una amplia gama de tareas de manera eficiente." + }, "gemma-7b-it": { "description": "Gemma 7B es adecuado para el procesamiento de tareas de pequeña y mediana escala, combinando rentabilidad." }, @@ -503,6 +524,9 @@ "glm-4-0520": { "description": "GLM-4-0520 es la última versión del modelo, diseñada para tareas altamente complejas y diversas, con un rendimiento excepcional." }, + "glm-4-9b-chat": { + "description": "GLM-4-9B-Chat muestra un alto rendimiento en semántica, matemáticas, razonamiento, código y conocimiento. También cuenta con navegación web, ejecución de código, llamadas a herramientas personalizadas y razonamiento de textos largos. Soporta 26 idiomas, incluidos japonés, coreano y alemán." + }, "glm-4-air": { "description": "GLM-4-Air es una versión de alto costo-beneficio, con un rendimiento cercano al GLM-4, ofreciendo velocidad y precios asequibles." }, diff --git a/locales/es-ES/providers.json b/locales/es-ES/providers.json index 9c30c5f9065c..a970700f486e 100644 --- a/locales/es-ES/providers.json +++ b/locales/es-ES/providers.json @@ -22,6 +22,9 @@ "fireworksai": { "description": "Fireworks AI es un proveedor líder de servicios de modelos de lenguaje avanzados, enfocado en la llamada de funciones y el procesamiento multimodal. Su modelo más reciente, Firefunction V2, basado en Llama-3, está optimizado para llamadas de funciones, diálogos y seguimiento de instrucciones. El modelo de lenguaje visual FireLLaVA-13B admite entradas mixtas de imágenes y texto. Otros modelos notables incluyen la serie Llama y la serie Mixtral, que ofrecen un soporte eficiente para el seguimiento y generación de instrucciones multilingües." }, + "giteeai": { + "description": "La API Serverless de Gitee AI ofrece a los desarrolladores de IA un servicio de API de inferencia de grandes modelos listo para usar." + }, "github": { "description": "Con los Modelos de GitHub, los desarrolladores pueden convertirse en ingenieros de IA y construir con los modelos de IA líderes en la industria." }, diff --git a/locales/es-ES/setting.json b/locales/es-ES/setting.json index 6607820a53c9..547adebc5b16 100644 --- a/locales/es-ES/setting.json +++ b/locales/es-ES/setting.json @@ -389,6 +389,11 @@ "modelDesc": "Modelo designado para optimizar las preguntas de los usuarios", "title": "Reescritura de preguntas de la base de conocimientos" }, + "thread": { + "label": "Modelo de nombramiento de subtemas", + "modelDesc": "Modelo designado para el renombramiento automático de subtemas", + "title": "Nombramiento automático de subtemas" + }, "title": "Asistente del sistema", "topic": { "label": "Modelo de nombramiento de temas", diff --git a/locales/es-ES/thread.json b/locales/es-ES/thread.json new file mode 100644 index 000000000000..d5664eba14b0 --- /dev/null +++ b/locales/es-ES/thread.json @@ -0,0 +1,5 @@ +{ + "actions": { + "confirmRemoveThread": "Está a punto de eliminar este subtema. Una vez eliminado, no se podrá recuperar. Por favor, actúe con precaución." + } +} diff --git a/locales/fa-IR/chat.json b/locales/fa-IR/chat.json index 96a180d724d3..65ef4d4b2ff2 100644 --- a/locales/fa-IR/chat.json +++ b/locales/fa-IR/chat.json @@ -8,6 +8,7 @@ "agents": "دستیار", "artifact": { "generating": "در حال تولید", + "inThread": "در زیرموضوع نمی‌توانید مشاهده کنید، لطفاً به ناحیه اصلی گفتگو بروید", "thinking": "در حال تفکر", "thought": "فرآیند تفکر", "unknownTitle": "اثر بدون نام" @@ -65,6 +66,7 @@ }, "messageAction": { "delAndRegenerate": "حذف و بازتولید", + "deleteDisabledByThreads": "زیرموضوع وجود دارد، نمی‌توان حذف کرد", "regenerate": "بازتولید" }, "newAgent": "دستیار جدید", @@ -121,6 +123,11 @@ "loading": "در حال شناسایی...", "prettifying": "در حال ویرایش..." }, + "thread": { + "divider": "زیرموضوع", + "threadMessageCount": "{{messageCount}} پیام", + "title": "زیرموضوع" + }, "tokenDetails": { "chats": "پیام‌های گفتگو", "historySummary": "خلاصه تاریخ", diff --git a/locales/fa-IR/common.json b/locales/fa-IR/common.json index 0aceabb41e7f..05390eefdd38 100644 --- a/locales/fa-IR/common.json +++ b/locales/fa-IR/common.json @@ -16,6 +16,8 @@ "back": "بازگشت", "batchDelete": "حذف دسته‌ای", "blog": "وبلاگ محصولات", + "branching": "ایجاد زیرموضوع", + "branchingDisable": "ویژگی «زیرموضوع» تنها در نسخه سرور قابل استفاده است، اگر به این ویژگی نیاز دارید، لطفاً به حالت استقرار سرور تغییر دهید یا از LobeChat Cloud استفاده کنید.", "cancel": "لغو", "changelog": "تغییرات", "close": "بستن", diff --git a/locales/fa-IR/models.json b/locales/fa-IR/models.json index 2c96966edfbc..60eb10f22a0f 100644 --- a/locales/fa-IR/models.json +++ b/locales/fa-IR/models.json @@ -176,6 +176,15 @@ "Qwen/Qwen2.5-Math-72B-Instruct": { "description": "Qwen2.5-Math بر حل مسائل در حوزه ریاضیات تمرکز دارد و پاسخ‌های حرفه‌ای برای مسائل پیچیده ارائه می‌دهد." }, + "Qwen2-72B-Instruct": { + "description": "Qwen2 جدیدترین سری مدل‌های Qwen است که از 128k زمینه پشتیبانی می‌کند. در مقایسه با بهترین مدل‌های متن‌باز فعلی، Qwen2-72B در درک زبان طبیعی، دانش، کد، ریاضی و چندزبانگی به طور قابل توجهی از مدل‌های پیشرو فعلی فراتر رفته است." + }, + "Qwen2-7B-Instruct": { + "description": "Qwen2 جدیدترین سری مدل‌های Qwen است که می‌تواند از مدل‌های متن‌باز با مقیاس مشابه و حتی بزرگتر فراتر رود. Qwen2 7B در چندین ارزیابی برتری قابل توجهی به دست آورده است، به ویژه در درک کد و زبان چینی." + }, + "Qwen2.5-72B-Instruct": { + "description": "Qwen2.5-72B-Instruct از 16k زمینه پشتیبانی می‌کند و قادر به تولید متن‌های طولانی بیش از 8K است. این مدل از تماس‌های تابع و تعامل بدون درز با سیستم‌های خارجی پشتیبانی می‌کند و به طور قابل توجهی انعطاف‌پذیری و گسترش‌پذیری را افزایش می‌دهد. دانش مدل به وضوح افزایش یافته و توانایی‌های کدنویسی و ریاضی به طور چشمگیری بهبود یافته است و از بیش از 29 زبان پشتیبانی می‌کند." + }, "SenseChat": { "description": "نسخه پایه مدل (V4)، طول متن ۴K، با توانایی‌های عمومی قوی" }, @@ -206,6 +215,9 @@ "Tencent/Hunyuan-A52B-Instruct": { "description": "Hunyuan-Large بزرگترین مدل MoE با ساختار Transformer متن باز در صنعت است که دارای ۳۸۹۰ میلیارد پارامتر کل و ۵۲۰ میلیارد پارامتر فعال است." }, + "Yi-34B-Chat": { + "description": "Yi-1.5-34B با حفظ توانایی‌های زبان عمومی عالی مدل‌های قبلی خود، از طریق آموزش افزایشی 500 میلیارد توکن با کیفیت بالا، به طور قابل توجهی توانایی‌های منطقی ریاضی و کدنویسی را افزایش داده است." + }, "abab5.5-chat": { "description": "برای سناریوهای بهره‌وری طراحی شده است، از پردازش وظایف پیچیده و تولید متن کارآمد پشتیبانی می‌کند و برای کاربردهای حرفه‌ای مناسب است." }, @@ -368,6 +380,9 @@ "codegeex-4": { "description": "CodeGeeX-4 یک دستیار برنامه‌نویسی قدرتمند مبتنی بر هوش مصنوعی است که از پرسش و پاسخ هوشمند و تکمیل کد در زبان‌های برنامه‌نویسی مختلف پشتیبانی می‌کند و بهره‌وری توسعه را افزایش می‌دهد." }, + "codegeex4-all-9b": { + "description": "CodeGeeX4-ALL-9B یک مدل تولید کد چندزبانگی است که از قابلیت‌های جامع شامل تکمیل و تولید کد، مفسر کد، جستجوی وب، تماس با توابع و پرسش و پاسخ کد در سطح مخزن پشتیبانی می‌کند و تمام سناریوهای توسعه نرم‌افزار را پوشش می‌دهد. این مدل یکی از بهترین مدل‌های تولید کد با پارامترهای کمتر از 10B است." + }, "codegemma": { "description": "CodeGemma یک مدل زبانی سبک برای وظایف مختلف برنامه‌نویسی است که از تکرار سریع و یکپارچه‌سازی پشتیبانی می‌کند." }, @@ -422,6 +437,9 @@ "deepseek-chat": { "description": "مدل متن‌باز جدیدی که توانایی‌های عمومی و کدنویسی را ترکیب می‌کند. این مدل نه تنها توانایی گفتگوی عمومی مدل Chat و توانایی قدرتمند پردازش کد مدل Coder را حفظ کرده است، بلکه به ترجیحات انسانی نیز بهتر همسو شده است. علاوه بر این، DeepSeek-V2.5 در وظایف نوشتاری، پیروی از دستورات و سایر جنبه‌ها نیز بهبودهای قابل توجهی داشته است." }, + "deepseek-coder-33B-instruct": { + "description": "DeepSeek Coder 33B یک مدل زبان کد است که بر اساس 20 تریلیون داده آموزش دیده است، که 87% آن کد و 13% آن زبان‌های چینی و انگلیسی است. این مدل اندازه پنجره 16K و وظایف پر کردن جا را معرفی می‌کند و قابلیت تکمیل کد و پر کردن قطعات در سطح پروژه را ارائه می‌دهد." + }, "deepseek-coder-v2": { "description": "DeepSeek Coder V2 یک مدل کد نویسی ترکیبی و متن‌باز است که در وظایف کدنویسی عملکرد عالی دارد و با GPT4-Turbo قابل مقایسه است." }, @@ -476,6 +494,9 @@ "gemini-exp-1114": { "description": "Gemini Exp 1114 جدیدترین مدل AI چند وجهی تجربی Google است که دارای قابلیت پردازش سریع می‌باشد و از ورودی‌های متنی، تصویری و ویدیویی پشتیبانی می‌کند و برای گسترش مؤثر در چندین وظیفه مناسب است." }, + "gemini-exp-1121": { + "description": "Gemini Exp 1121 جدیدترین مدل آزمایشی چندرسانه‌ای AI گوگل است که دارای قابلیت پردازش سریع بوده و از ورودی‌های متنی، تصویری و ویدیویی پشتیبانی می‌کند و برای گسترش کارآمد در انواع وظایف مناسب است." + }, "gemma-7b-it": { "description": "Gemma 7B برای پردازش وظایف کوچک و متوسط مناسب است و از نظر هزینه مؤثر است." }, @@ -503,6 +524,9 @@ "glm-4-0520": { "description": "GLM-4-0520 جدیدترین نسخه مدل است که برای وظایف بسیار پیچیده و متنوع طراحی شده و عملکردی عالی دارد." }, + "glm-4-9b-chat": { + "description": "GLM-4-9B-Chat در زمینه‌های معنایی، ریاضی، استدلال، کد و دانش عملکرد بالایی از خود نشان می‌دهد. همچنین دارای قابلیت مرور وب، اجرای کد، تماس با ابزارهای سفارشی و استدلال متن‌های طولانی است. از 26 زبان از جمله ژاپنی، کره‌ای و آلمانی پشتیبانی می‌کند." + }, "glm-4-air": { "description": "GLM-4-Air نسخه‌ای با صرفه اقتصادی است که عملکردی نزدیک به GLM-4 دارد و سرعت بالا و قیمت مناسبی را ارائه می‌دهد." }, diff --git a/locales/fa-IR/providers.json b/locales/fa-IR/providers.json index 1d1eb8e0fd1f..2d6f56a06297 100644 --- a/locales/fa-IR/providers.json +++ b/locales/fa-IR/providers.json @@ -22,6 +22,9 @@ "fireworksai": { "description": "Fireworks AI یک ارائه‌دهنده پیشرو در خدمات مدل‌های زبان پیشرفته است که بر فراخوانی توابع و پردازش چندوجهی تمرکز دارد. جدیدترین مدل آن، Firefunction V2، بر اساس Llama-3 ساخته شده و برای فراخوانی توابع، مکالمه و پیروی از دستورات بهینه‌سازی شده است. مدل زبان تصویری FireLLaVA-13B از ورودی‌های ترکیبی تصویر و متن پشتیبانی می‌کند. سایر مدل‌های قابل توجه شامل سری Llama و سری Mixtral هستند که پشتیبانی کارآمدی از پیروی دستورات چندزبانه و تولید ارائه می‌دهند." }, + "giteeai": { + "description": "API بدون سرور Gitee AI خدمات API استنتاج مدل‌های بزرگ را به‌صورت آماده برای توسعه‌دهندگان هوش مصنوعی ارائه می‌دهد." + }, "github": { "description": "با استفاده از مدل GitHub، توسعه‌دهندگان می‌توانند به مهندسین هوش مصنوعی تبدیل شوند و با استفاده از مدل‌های پیشرو در صنعت، ساخت و ساز کنند." }, diff --git a/locales/fa-IR/setting.json b/locales/fa-IR/setting.json index e618023e66ea..239c8d52d0af 100644 --- a/locales/fa-IR/setting.json +++ b/locales/fa-IR/setting.json @@ -389,6 +389,11 @@ "modelDesc": "مدلی که برای بهینه‌سازی پرسش‌های کاربران استفاده می‌شود", "title": "بازنویسی پرسش‌های پایگاه دانش" }, + "thread": { + "label": "مدل نام‌گذاری زیرموضوع", + "modelDesc": "مدل مشخص شده برای تغییر نام خودکار زیرموضوع‌ها", + "title": "نام‌گذاری خودکار زیرموضوع" + }, "title": "دستیار سیستم", "topic": { "label": "مدل نام‌گذاری موضوع", diff --git a/locales/fa-IR/thread.json b/locales/fa-IR/thread.json new file mode 100644 index 000000000000..bac054c1c7ec --- /dev/null +++ b/locales/fa-IR/thread.json @@ -0,0 +1,5 @@ +{ + "actions": { + "confirmRemoveThread": "شما در حال حذف این زیرموضوع هستید. پس از حذف، امکان بازیابی آن وجود نخواهد داشت. لطفاً با احتیاط عمل کنید." + } +} diff --git a/locales/fr-FR/chat.json b/locales/fr-FR/chat.json index f0b3e33692e3..c7c9431df9a3 100644 --- a/locales/fr-FR/chat.json +++ b/locales/fr-FR/chat.json @@ -8,6 +8,7 @@ "agents": "Assistant", "artifact": { "generating": "Génération en cours", + "inThread": "Impossible de voir dans le sous-sujet, veuillez passer à la zone de discussion principale.", "thinking": "En réflexion", "thought": "Processus de pensée", "unknownTitle": "Œuvre sans nom" @@ -65,6 +66,7 @@ }, "messageAction": { "delAndRegenerate": "Supprimer et régénérer", + "deleteDisabledByThreads": "Il existe des sous-sujets, la suppression n'est pas possible.", "regenerate": "Régénérer" }, "newAgent": "Nouvel agent", @@ -121,6 +123,11 @@ "loading": "En cours de reconnaissance...", "prettifying": "En cours d'embellissement..." }, + "thread": { + "divider": "Sous-sujet", + "threadMessageCount": "{{messageCount}} messages", + "title": "Sous-sujet" + }, "tokenDetails": { "chats": "Messages de discussion", "historySummary": "Résumé historique", diff --git a/locales/fr-FR/common.json b/locales/fr-FR/common.json index d5d647c9a312..6c11b23a8357 100644 --- a/locales/fr-FR/common.json +++ b/locales/fr-FR/common.json @@ -16,6 +16,8 @@ "back": "Retour", "batchDelete": "Suppression en masse", "blog": "Blog des produits", + "branching": "Créer un sous-sujet", + "branchingDisable": "La fonction « sous-sujet » n'est disponible que dans la version serveur. Si vous avez besoin de cette fonctionnalité, veuillez passer en mode de déploiement serveur ou utiliser LobeChat Cloud.", "cancel": "Annuler", "changelog": "Journal des modifications", "close": "Fermer", diff --git a/locales/fr-FR/models.json b/locales/fr-FR/models.json index ff9f81bbdf7a..517c9588c54c 100644 --- a/locales/fr-FR/models.json +++ b/locales/fr-FR/models.json @@ -176,6 +176,15 @@ "Qwen/Qwen2.5-Math-72B-Instruct": { "description": "Qwen2.5-Math se concentre sur la résolution de problèmes dans le domaine des mathématiques, fournissant des réponses professionnelles pour des questions de haute difficulté." }, + "Qwen2-72B-Instruct": { + "description": "Qwen2 est la dernière série du modèle Qwen, prenant en charge un contexte de 128k. Comparé aux meilleurs modèles open source actuels, Qwen2-72B surpasse de manière significative les modèles leaders dans des domaines tels que la compréhension du langage naturel, les connaissances, le code, les mathématiques et le multilinguisme." + }, + "Qwen2-7B-Instruct": { + "description": "Qwen2 est la dernière série du modèle Qwen, capable de surpasser les meilleurs modèles open source de taille équivalente, voire de plus grande taille. Qwen2 7B a obtenu des résultats significatifs dans plusieurs évaluations, en particulier en ce qui concerne la compréhension du code et du chinois." + }, + "Qwen2.5-72B-Instruct": { + "description": "Qwen2.5-72B-Instruct prend en charge un contexte de 16k, générant des textes longs de plus de 8K. Il permet des appels de fonction et une interaction transparente avec des systèmes externes, augmentant considérablement la flexibilité et l'évolutivité. Les connaissances du modèle ont considérablement augmenté, et ses capacités en codage et en mathématiques ont été grandement améliorées, avec un support multilingue dépassant 29 langues." + }, "SenseChat": { "description": "Modèle de version de base (V4), longueur de contexte de 4K, avec de puissantes capacités générales." }, @@ -206,6 +215,9 @@ "Tencent/Hunyuan-A52B-Instruct": { "description": "Hunyuan-Large est le plus grand modèle MoE à architecture Transformer open source de l'industrie, avec un total de 389 milliards de paramètres et 52 milliards de paramètres activés." }, + "Yi-34B-Chat": { + "description": "Yi-1.5-34B, tout en maintenant les excellentes capacités linguistiques générales de la série originale, a considérablement amélioré ses compétences en logique mathématique et en codage grâce à un entraînement incrémental sur 500 milliards de tokens de haute qualité." + }, "abab5.5-chat": { "description": "Orienté vers des scénarios de productivité, prenant en charge le traitement de tâches complexes et la génération de texte efficace, adapté aux applications professionnelles." }, @@ -368,6 +380,9 @@ "codegeex-4": { "description": "CodeGeeX-4 est un puissant assistant de programmation AI, prenant en charge des questions intelligentes et l'achèvement de code dans divers langages de programmation, améliorant l'efficacité du développement." }, + "codegeex4-all-9b": { + "description": "CodeGeeX4-ALL-9B est un modèle de génération de code multilingue, offrant des fonctionnalités complètes, y compris la complétion et la génération de code, un interpréteur de code, une recherche sur le web, des appels de fonction et des questions-réponses sur le code au niveau des dépôts, couvrant divers scénarios de développement logiciel. C'est un modèle de génération de code de premier plan avec moins de 10B de paramètres." + }, "codegemma": { "description": "CodeGemma est un modèle de langage léger dédié à différentes tâches de programmation, prenant en charge une itération et une intégration rapides." }, @@ -422,6 +437,9 @@ "deepseek-chat": { "description": "Un nouveau modèle open source qui fusionne des capacités générales et de code, conservant non seulement la capacité de dialogue général du modèle Chat d'origine et la puissante capacité de traitement de code du modèle Coder, mais s'alignant également mieux sur les préférences humaines. De plus, DeepSeek-V2.5 a réalisé des améliorations significatives dans plusieurs domaines tels que les tâches d'écriture et le suivi des instructions." }, + "deepseek-coder-33B-instruct": { + "description": "DeepSeek Coder 33B est un modèle de langage de code, entraîné sur 20 trillions de données, dont 87 % sont du code et 13 % des langues chinoise et anglaise. Le modèle introduit une taille de fenêtre de 16K et des tâches de remplissage, offrant des fonctionnalités de complétion de code et de remplissage de fragments au niveau des projets." + }, "deepseek-coder-v2": { "description": "DeepSeek Coder V2 est un modèle de code open source de type expert mixte, performant dans les tâches de code, rivalisant avec GPT4-Turbo." }, @@ -476,6 +494,9 @@ "gemini-exp-1114": { "description": "Gemini Exp 1114 est le dernier modèle d'IA multimodale expérimental de Google, offrant une capacité de traitement rapide, prenant en charge les entrées de texte, d'image et de vidéo, et permettant une extension efficace pour une variété de tâches." }, + "gemini-exp-1121": { + "description": "Gemini Exp 1121 est le dernier modèle d'IA multimodal expérimental de Google, capable de traiter rapidement des entrées textuelles, d'images et de vidéos, et adapté à une large gamme de tâches avec une efficacité accrue." + }, "gemma-7b-it": { "description": "Gemma 7B est adapté au traitement de tâches de taille moyenne, alliant coût et efficacité." }, @@ -503,6 +524,9 @@ "glm-4-0520": { "description": "GLM-4-0520 est la dernière version du modèle, conçue pour des tâches hautement complexes et diversifiées, avec des performances exceptionnelles." }, + "glm-4-9b-chat": { + "description": "GLM-4-9B-Chat affiche de bonnes performances dans divers domaines tels que la sémantique, les mathématiques, le raisonnement, le code et les connaissances. Il dispose également de fonctionnalités de navigation sur le web, d'exécution de code, d'appels d'outils personnalisés et de raisonnement sur de longs textes. Il prend en charge 26 langues, y compris le japonais, le coréen et l'allemand." + }, "glm-4-air": { "description": "GLM-4-Air est une version économique, offrant des performances proches de GLM-4, avec une rapidité et un prix abordable." }, diff --git a/locales/fr-FR/providers.json b/locales/fr-FR/providers.json index 28943c70332f..ba0a8c48ad25 100644 --- a/locales/fr-FR/providers.json +++ b/locales/fr-FR/providers.json @@ -22,6 +22,9 @@ "fireworksai": { "description": "Fireworks AI est un fournisseur de services de modèles linguistiques avancés, axé sur les appels de fonction et le traitement multimodal. Son dernier modèle, Firefunction V2, basé sur Llama-3, est optimisé pour les appels de fonction, les dialogues et le suivi des instructions. Le modèle de langage visuel FireLLaVA-13B prend en charge les entrées mixtes d'images et de texte. D'autres modèles notables incluent la série Llama et la série Mixtral, offrant un support efficace pour le suivi et la génération d'instructions multilingues." }, + "giteeai": { + "description": "L'API Serverless de Gitee AI offre aux développeurs d'IA un service d'API de raisonnement de grands modèles prêt à l'emploi." + }, "github": { "description": "Avec les modèles GitHub, les développeurs peuvent devenir des ingénieurs en IA et créer avec les modèles d'IA les plus avancés de l'industrie." }, diff --git a/locales/fr-FR/setting.json b/locales/fr-FR/setting.json index 3a6112f8676a..d96727f99af4 100644 --- a/locales/fr-FR/setting.json +++ b/locales/fr-FR/setting.json @@ -389,6 +389,11 @@ "modelDesc": "Modèle utilisé pour optimiser les questions des utilisateurs", "title": "Réécriture de la question de la base de connaissances" }, + "thread": { + "label": "Modèle de nomination de sous-thème", + "modelDesc": "Modèle utilisé pour le renommage automatique des sous-thèmes", + "title": "Nommer automatiquement les sous-thèmes" + }, "title": "Agent système", "topic": { "label": "Modèle de nommage des sujets", diff --git a/locales/fr-FR/thread.json b/locales/fr-FR/thread.json new file mode 100644 index 000000000000..6b918310818f --- /dev/null +++ b/locales/fr-FR/thread.json @@ -0,0 +1,5 @@ +{ + "actions": { + "confirmRemoveThread": "Vous allez supprimer ce sous-sujet. Une fois supprimé, il ne pourra pas être récupéré. Veuillez agir avec prudence." + } +} diff --git a/locales/it-IT/chat.json b/locales/it-IT/chat.json index 90daf99ef532..57a80b3c9ffa 100644 --- a/locales/it-IT/chat.json +++ b/locales/it-IT/chat.json @@ -8,6 +8,7 @@ "agents": "Assistente", "artifact": { "generating": "Generazione in corso", + "inThread": "Non è possibile visualizzare nei sottoargomenti, passare all'area di discussione principale per aprire", "thinking": "In fase di riflessione", "thought": "Processo di pensiero", "unknownTitle": "Opera non nominata" @@ -65,6 +66,7 @@ }, "messageAction": { "delAndRegenerate": "Elimina e rigenera", + "deleteDisabledByThreads": "Esistono sottoargomenti, non è possibile eliminare", "regenerate": "Rigenera" }, "newAgent": "Nuovo assistente", @@ -121,6 +123,11 @@ "loading": "Riconoscimento in corso...", "prettifying": "Miglioramento in corso..." }, + "thread": { + "divider": "Sottoargomento", + "threadMessageCount": "{{messageCount}} messaggi", + "title": "Sottoargomento" + }, "tokenDetails": { "chats": "Chat", "historySummary": "Riepilogo storico", diff --git a/locales/it-IT/common.json b/locales/it-IT/common.json index 48ee9ad838ce..aaef4ef71e03 100644 --- a/locales/it-IT/common.json +++ b/locales/it-IT/common.json @@ -16,6 +16,8 @@ "back": "Indietro", "batchDelete": "Elimina in batch", "blog": "Blog sui prodotti", + "branching": "Crea un sottotema", + "branchingDisable": "La funzione «sottotema» è disponibile solo nella versione server. Se desideri utilizzare questa funzione, passa alla modalità di distribuzione server o utilizza LobeChat Cloud.", "cancel": "Annulla", "changelog": "Registro modifiche", "close": "Chiudi", diff --git a/locales/it-IT/models.json b/locales/it-IT/models.json index 861aa57d022c..9e03cbffd832 100644 --- a/locales/it-IT/models.json +++ b/locales/it-IT/models.json @@ -176,6 +176,15 @@ "Qwen/Qwen2.5-Math-72B-Instruct": { "description": "Qwen2.5-Math si concentra sulla risoluzione di problemi nel campo della matematica, fornendo risposte professionali a domande di alta difficoltà." }, + "Qwen2-72B-Instruct": { + "description": "Qwen2 è l'ultima serie del modello Qwen, supporta un contesto di 128k, e rispetto ai modelli open source attualmente migliori, Qwen2-72B supera significativamente i modelli leader attuali in comprensione del linguaggio naturale, conoscenza, codice, matematica e capacità multilingue." + }, + "Qwen2-7B-Instruct": { + "description": "Qwen2 è l'ultima serie del modello Qwen, in grado di superare i modelli open source ottimali di dimensioni simili e anche modelli di dimensioni maggiori. Qwen2 7B ha ottenuto vantaggi significativi in vari test, in particolare nella comprensione del codice e del cinese." + }, + "Qwen2.5-72B-Instruct": { + "description": "Qwen2.5-72B-Instruct supporta un contesto di 16k, generando testi lunghi oltre 8K. Supporta chiamate di funzione e interazioni senza soluzione di continuità con sistemi esterni, aumentando notevolmente flessibilità e scalabilità. La conoscenza del modello è notevolmente aumentata e ha migliorato significativamente le capacità di codifica e matematica, con supporto per oltre 29 lingue." + }, "SenseChat": { "description": "Modello di base (V4), lunghezza del contesto di 4K, con potenti capacità generali." }, @@ -206,6 +215,9 @@ "Tencent/Hunyuan-A52B-Instruct": { "description": "Hunyuan-Large è il modello MoE con architettura Transformer open source più grande del settore, con un totale di 389 miliardi di parametri e 52 miliardi di parametri attivi." }, + "Yi-34B-Chat": { + "description": "Yi-1.5-34B, mantenendo le eccellenti capacità linguistiche generali della serie originale, ha notevolmente migliorato la logica matematica e le capacità di codifica attraverso un addestramento incrementale su 500 miliardi di token di alta qualità." + }, "abab5.5-chat": { "description": "Focalizzato su scenari di produttività, supporta l'elaborazione di compiti complessi e la generazione di testo efficiente, adatto per applicazioni professionali." }, @@ -368,6 +380,9 @@ "codegeex-4": { "description": "CodeGeeX-4 è un potente assistente di programmazione AI, supporta domande intelligenti e completamento del codice in vari linguaggi di programmazione, migliorando l'efficienza dello sviluppo." }, + "codegeex4-all-9b": { + "description": "CodeGeeX4-ALL-9B è un modello di generazione di codice multilingue, supporta funzionalità complete tra cui completamento e generazione di codice, interprete di codice, ricerca in rete, chiamate di funzione e domande e risposte sul codice a livello di repository, coprendo vari scenari di sviluppo software. È un modello di generazione di codice di punta con meno di 10B di parametri." + }, "codegemma": { "description": "CodeGemma è un modello linguistico leggero dedicato a vari compiti di programmazione, supporta iterazioni rapide e integrazione." }, @@ -422,6 +437,9 @@ "deepseek-chat": { "description": "Un nuovo modello open source che integra capacità generali e di codifica, mantenendo non solo le capacità conversazionali generali del modello Chat originale, ma anche la potente capacità di elaborazione del codice del modello Coder, allineandosi meglio alle preferenze umane. Inoltre, DeepSeek-V2.5 ha ottenuto notevoli miglioramenti in vari aspetti, come i compiti di scrittura e il rispetto delle istruzioni." }, + "deepseek-coder-33B-instruct": { + "description": "DeepSeek Coder 33B è un modello di linguaggio per codice, addestrato su 20 trilioni di dati, di cui l'87% è codice e il 13% è in cinese e inglese. Il modello introduce una dimensione della finestra di 16K e compiti di completamento, fornendo funzionalità di completamento del codice e riempimento di frammenti a livello di progetto." + }, "deepseek-coder-v2": { "description": "DeepSeek Coder V2 è un modello di codice open source di esperti misti, eccelle nei compiti di codice, paragonabile a GPT4-Turbo." }, @@ -476,6 +494,9 @@ "gemini-exp-1114": { "description": "Gemini Exp 1114 è il modello AI multimodale sperimentale più recente di Google, dotato di capacità di elaborazione rapida, supporta input testuali, visivi e video, ed è adatto per un'ampia gamma di compiti con un'efficiente scalabilità." }, + "gemini-exp-1121": { + "description": "Gemini Exp 1121 è il più recente modello AI multimodale sperimentale di Google, dotato di capacità di elaborazione rapida, supporta input di testo, immagini e video, ed è adatto per un'ampia gamma di compiti con un'efficace scalabilità." + }, "gemma-7b-it": { "description": "Gemma 7B è adatto per l'elaborazione di compiti di piccole e medie dimensioni, combinando efficienza dei costi." }, @@ -503,6 +524,9 @@ "glm-4-0520": { "description": "GLM-4-0520 è l'ultima versione del modello, progettata per compiti altamente complessi e diversificati, con prestazioni eccezionali." }, + "glm-4-9b-chat": { + "description": "GLM-4-9B-Chat mostra elevate prestazioni in vari aspetti come semantica, matematica, ragionamento, codice e conoscenza. Ha anche la capacità di navigare in rete, eseguire codice, chiamare strumenti personalizzati e inferire testi lunghi. Supporta 26 lingue, tra cui giapponese, coreano e tedesco." + }, "glm-4-air": { "description": "GLM-4-Air è una versione economica, con prestazioni simili a GLM-4, che offre velocità elevate a un prezzo accessibile." }, diff --git a/locales/it-IT/providers.json b/locales/it-IT/providers.json index cf77a9901993..3ab748b38751 100644 --- a/locales/it-IT/providers.json +++ b/locales/it-IT/providers.json @@ -22,6 +22,9 @@ "fireworksai": { "description": "Fireworks AI è un fornitore leader di servizi di modelli linguistici avanzati, focalizzato su chiamate funzionali e elaborazione multimodale. Il suo ultimo modello Firefunction V2, basato su Llama-3, è ottimizzato per chiamate di funzione, dialogo e rispetto delle istruzioni. Il modello di linguaggio visivo FireLLaVA-13B supporta input misti di immagini e testo. Altri modelli notevoli includono la serie Llama e la serie Mixtral, offrendo supporto efficiente per il rispetto e la generazione di istruzioni multilingue." }, + "giteeai": { + "description": "L'API Serverless di Gitee AI offre agli sviluppatori AI un servizio API di inferenza di grandi modelli pronto all'uso." + }, "github": { "description": "Con i modelli di GitHub, gli sviluppatori possono diventare ingegneri AI e costruire con i modelli AI leader del settore." }, diff --git a/locales/it-IT/setting.json b/locales/it-IT/setting.json index 6e317ccbb21a..6c5daee39cc9 100644 --- a/locales/it-IT/setting.json +++ b/locales/it-IT/setting.json @@ -389,6 +389,11 @@ "modelDesc": "Modello specificato per ottimizzare le domande degli utenti", "title": "Riscrittura delle domande del knowledge base" }, + "thread": { + "label": "Modello di denominazione dei sottoargomenti", + "modelDesc": "Modello designato per la rinominazione automatica dei sottoargomenti", + "title": "Rinominazione automatica dei sottoargomenti" + }, "title": "Assistente di sistema", "topic": { "label": "Modello di denominazione degli argomenti", diff --git a/locales/it-IT/thread.json b/locales/it-IT/thread.json new file mode 100644 index 000000000000..3e96834b1ed0 --- /dev/null +++ b/locales/it-IT/thread.json @@ -0,0 +1,5 @@ +{ + "actions": { + "confirmRemoveThread": "Stai per eliminare questo sottoargomento. Una volta eliminato, non potrà essere ripristinato. Ti preghiamo di procedere con cautela." + } +} diff --git a/locales/ja-JP/chat.json b/locales/ja-JP/chat.json index 144f1a5144da..ace45b4ece04 100644 --- a/locales/ja-JP/chat.json +++ b/locales/ja-JP/chat.json @@ -8,6 +8,7 @@ "agents": "エージェント", "artifact": { "generating": "生成中", + "inThread": "サブトピックでは表示できません。メインの対話エリアに切り替えてください。", "thinking": "思考中", "thought": "思考過程", "unknownTitle": "未命名の作品" @@ -65,6 +66,7 @@ }, "messageAction": { "delAndRegenerate": "削除して再生成", + "deleteDisabledByThreads": "サブトピックが存在するため、削除できません。", "regenerate": "再生成" }, "newAgent": "新しいエージェント", @@ -121,6 +123,11 @@ "loading": "認識中...", "prettifying": "整形中..." }, + "thread": { + "divider": "サブトピック", + "threadMessageCount": "{{messageCount}} 件のメッセージ", + "title": "サブトピック" + }, "tokenDetails": { "chats": "チャットメッセージ", "historySummary": "履歴の要約", diff --git a/locales/ja-JP/common.json b/locales/ja-JP/common.json index 6ef81bbfe493..722946b90bc3 100644 --- a/locales/ja-JP/common.json +++ b/locales/ja-JP/common.json @@ -16,6 +16,8 @@ "back": "戻る", "batchDelete": "バッチ削除", "blog": "製品ブログ", + "branching": "サブトピックを作成", + "branchingDisable": "「サブトピック」機能はサーバー版のみで利用可能です。この機能が必要な場合は、サーバー展開モードに切り替えるか、LobeChat Cloudを使用してください。", "cancel": "キャンセル", "changelog": "変更履歴", "close": "閉じる", diff --git a/locales/ja-JP/models.json b/locales/ja-JP/models.json index 6efc76ca55a2..ebc9d119080e 100644 --- a/locales/ja-JP/models.json +++ b/locales/ja-JP/models.json @@ -176,6 +176,15 @@ "Qwen/Qwen2.5-Math-72B-Instruct": { "description": "Qwen2.5-Mathは、数学分野の問題解決に特化しており、高難度の問題に対して専門的な解答を提供します。" }, + "Qwen2-72B-Instruct": { + "description": "Qwen2はQwenモデルの最新シリーズで、128kのコンテキストをサポートしています。現在の最適なオープンソースモデルと比較して、Qwen2-72Bは自然言語理解、知識、コード、数学、そして多言語などの能力において、現在のリーディングモデルを大幅に上回っています。" + }, + "Qwen2-7B-Instruct": { + "description": "Qwen2はQwenモデルの最新シリーズで、同等の規模の最適なオープンソースモデルやそれ以上の規模のモデルを超えることができ、Qwen2 7Bは複数の評価で顕著な優位性を示し、特にコードと中国語理解において優れています。" + }, + "Qwen2.5-72B-Instruct": { + "description": "Qwen2.5-72B-Instructは、16kのコンテキストをサポートし、8Kを超える長文を生成します。関数呼び出しと外部システムとのシームレスなインタラクションをサポートし、柔軟性と拡張性を大幅に向上させました。モデルの知識は明らかに増加し、コーディングと数学の能力が大幅に向上し、29以上の言語をサポートしています。" + }, "SenseChat": { "description": "基本バージョンのモデル (V4)、4Kのコンテキスト長で、汎用能力が強力です。" }, @@ -206,6 +215,9 @@ "Tencent/Hunyuan-A52B-Instruct": { "description": "Hunyuan-Largeは業界最大のオープンソースTransformerアーキテクチャMoEモデルで、3890億の総パラメータ数と520億のアクティブパラメータ数を持っています。" }, + "Yi-34B-Chat": { + "description": "Yi-1.5-34Bは、元のシリーズモデルの優れた汎用言語能力を維持しつつ、5000億の高品質トークンを増分トレーニングすることで、数学的論理とコーディング能力を大幅に向上させました。" + }, "abab5.5-chat": { "description": "生産性シーン向けであり、複雑なタスク処理と効率的なテキスト生成をサポートし、専門分野のアプリケーションに適しています。" }, @@ -368,6 +380,9 @@ "codegeex-4": { "description": "CodeGeeX-4は強力なAIプログラミングアシスタントで、さまざまなプログラミング言語のインテリジェントな質問応答とコード補完をサポートし、開発効率を向上させます。" }, + "codegeex4-all-9b": { + "description": "CodeGeeX4-ALL-9Bは、多言語コード生成モデルで、コード補完と生成、コードインタープリター、ウェブ検索、関数呼び出し、リポジトリレベルのコードQ&Aを含む包括的な機能をサポートし、ソフトウェア開発のさまざまなシーンをカバーしています。パラメータが10B未満のトップクラスのコード生成モデルです。" + }, "codegemma": { "description": "CodeGemmaは、さまざまなプログラミングタスクに特化した軽量言語モデルであり、迅速な反復と統合をサポートします。" }, @@ -422,6 +437,9 @@ "deepseek-chat": { "description": "一般的な対話能力と強力なコード処理能力を兼ね備えた新しいオープンソースモデルであり、元のChatモデルの対話能力とCoderモデルのコード処理能力を保持しつつ、人間の好みにより良く整合しています。さらに、DeepSeek-V2.5は、執筆タスクや指示に従う能力など、さまざまな面で大幅な向上を実現しました。" }, + "deepseek-coder-33B-instruct": { + "description": "DeepSeek Coder 33Bは、2兆のデータを基にトレーニングされたコード言語モデルで、そのうち87%がコード、13%が中英語です。モデルは16Kのウィンドウサイズと穴埋めタスクを導入し、プロジェクトレベルのコード補完とスニペット埋め機能を提供します。" + }, "deepseek-coder-v2": { "description": "DeepSeek Coder V2は、オープンソースの混合エキスパートコードモデルであり、コードタスクにおいて優れた性能を発揮し、GPT4-Turboに匹敵します。" }, @@ -476,6 +494,9 @@ "gemini-exp-1114": { "description": "Gemini Exp 1114は、Googleの最新の実験的なマルチモーダルAIモデルで、迅速な処理能力を備え、テキスト、画像、動画の入力をサポートし、様々なタスクに効率的に対応できます。" }, + "gemini-exp-1121": { + "description": "Gemini Exp 1121は、Googleの最新の実験的なマルチモーダルAIモデルで、高速処理能力を備え、テキスト、画像、動画の入力をサポートし、さまざまなタスクに対して効率的に拡張できます。" + }, "gemma-7b-it": { "description": "Gemma 7Bは、中小規模のタスク処理に適しており、コスト効果を兼ね備えています。" }, @@ -503,6 +524,9 @@ "glm-4-0520": { "description": "GLM-4-0520は最新のモデルバージョンで、高度に複雑で多様なタスクのために設計され、優れたパフォーマンスを発揮します。" }, + "glm-4-9b-chat": { + "description": "GLM-4-9B-Chatは、意味、数学、推論、コード、知識などの多方面で高い性能を示しています。また、ウェブブラウジング、コード実行、カスタムツール呼び出し、長文推論を備えています。日本語、韓国語、ドイツ語を含む26の言語をサポートしています。" + }, "glm-4-air": { "description": "GLM-4-Airはコストパフォーマンスが高いバージョンで、GLM-4に近い性能を提供し、高速かつ手頃な価格です。" }, diff --git a/locales/ja-JP/providers.json b/locales/ja-JP/providers.json index f5a1df847e4a..6d58ff0fb095 100644 --- a/locales/ja-JP/providers.json +++ b/locales/ja-JP/providers.json @@ -22,6 +22,9 @@ "fireworksai": { "description": "Fireworks AIは、先進的な言語モデルサービスのリーダーであり、機能呼び出しと多モーダル処理に特化しています。最新のモデルFirefunction V2はLlama-3に基づいており、関数呼び出し、対話、指示の遵守に最適化されています。視覚言語モデルFireLLaVA-13Bは、画像とテキストの混合入力をサポートしています。他の注目すべきモデルには、LlamaシリーズやMixtralシリーズがあり、高効率の多言語指示遵守と生成サポートを提供しています。" }, + "giteeai": { + "description": "Gitee AIのサーバーレスAPIは、AI開発者に対して、すぐに使える大規模モデル推論APIサービスを提供します。" + }, "github": { "description": "GitHubモデルを使用することで、開発者はAIエンジニアになり、業界をリードするAIモデルを使って構築できます。" }, diff --git a/locales/ja-JP/setting.json b/locales/ja-JP/setting.json index d13e48096716..7e888f0122a8 100644 --- a/locales/ja-JP/setting.json +++ b/locales/ja-JP/setting.json @@ -389,6 +389,11 @@ "modelDesc": "ユーザーの質問を最適化するために指定されたモデル", "title": "知識ベースの質問の書き換え" }, + "thread": { + "label": "サブトピック命名モデル", + "modelDesc": "サブトピックの自動命名に使用されるモデルを指定します", + "title": "サブトピックの自動命名" + }, "title": "システムアシスタント", "topic": { "label": "トピックネーミングモデル", diff --git a/locales/ja-JP/thread.json b/locales/ja-JP/thread.json new file mode 100644 index 000000000000..a0de5d0f6ee4 --- /dev/null +++ b/locales/ja-JP/thread.json @@ -0,0 +1,5 @@ +{ + "actions": { + "confirmRemoveThread": "このスレッドを削除しようとしています。削除後は復元できませんので、慎重に操作してください。" + } +} diff --git a/locales/ko-KR/chat.json b/locales/ko-KR/chat.json index fb0ea8ebd8fe..22bf93439610 100644 --- a/locales/ko-KR/chat.json +++ b/locales/ko-KR/chat.json @@ -8,6 +8,7 @@ "agents": "도우미", "artifact": { "generating": "생성 중", + "inThread": "하위 주제에서는 볼 수 없습니다. 주 대화 영역으로 전환하여 열어주세요.", "thinking": "생각 중", "thought": "사고 과정", "unknownTitle": "제목 없음" @@ -65,6 +66,7 @@ }, "messageAction": { "delAndRegenerate": "삭제하고 다시 생성", + "deleteDisabledByThreads": "하위 주제가 존재하여 삭제할 수 없습니다.", "regenerate": "다시 생성" }, "newAgent": "새 도우미", @@ -121,6 +123,11 @@ "loading": "인식 중...", "prettifying": "정제 중..." }, + "thread": { + "divider": "하위 주제", + "threadMessageCount": "{{messageCount}}개의 메시지", + "title": "하위 주제" + }, "tokenDetails": { "chats": "채팅 메시지", "historySummary": "역사 요약", diff --git a/locales/ko-KR/common.json b/locales/ko-KR/common.json index b7a400f36f37..ff214959b432 100644 --- a/locales/ko-KR/common.json +++ b/locales/ko-KR/common.json @@ -16,6 +16,8 @@ "back": "뒤로", "batchDelete": "일괄 삭제", "blog": "제품 블로그", + "branching": "하위 주제 만들기", + "branchingDisable": "「하위 주제」 기능은 서버 버전에서만 사용할 수 있습니다. 이 기능이 필요하시면 서버 배포 모드로 전환하거나 LobeChat Cloud를 사용하세요.", "cancel": "취소", "changelog": "변경 로그", "close": "닫기", diff --git a/locales/ko-KR/models.json b/locales/ko-KR/models.json index 4647ae0ee8d1..bfaf099fb55f 100644 --- a/locales/ko-KR/models.json +++ b/locales/ko-KR/models.json @@ -176,6 +176,15 @@ "Qwen/Qwen2.5-Math-72B-Instruct": { "description": "Qwen2.5-Math는 수학 분야의 문제 해결에 중점을 두고 있으며, 고난이도 문제에 대한 전문적인 해답을 제공합니다." }, + "Qwen2-72B-Instruct": { + "description": "Qwen2는 Qwen 모델의 최신 시리즈로, 128k 컨텍스트를 지원합니다. 현재 최상의 오픈 소스 모델과 비교할 때, Qwen2-72B는 자연어 이해, 지식, 코드, 수학 및 다국어 등 여러 능력에서 현재 선도하는 모델을 현저히 초월합니다." + }, + "Qwen2-7B-Instruct": { + "description": "Qwen2는 Qwen 모델의 최신 시리즈로, 동등한 규모의 최적 오픈 소스 모델은 물론 더 큰 규모의 모델을 초월할 수 있습니다. Qwen2 7B는 여러 평가에서 현저한 우위를 차지하였으며, 특히 코드 및 중국어 이해에서 두드러진 성과를 보였습니다." + }, + "Qwen2.5-72B-Instruct": { + "description": "Qwen2.5-72B-Instruct는 16k 컨텍스트를 지원하며, 8K를 초과하는 긴 텍스트를 생성할 수 있습니다. 함수 호출 및 외부 시스템과의 원활한 상호작용을 지원하여 유연성과 확장성을 크게 향상시킵니다. 모델의 지식이 현저히 증가하였고, 인코딩 및 수학 능력이 크게 향상되었으며, 29개 이상의 언어를 지원합니다." + }, "SenseChat": { "description": "기본 버전 모델(V4), 4K 컨텍스트 길이, 일반적인 능력이 강력합니다." }, @@ -206,6 +215,9 @@ "Tencent/Hunyuan-A52B-Instruct": { "description": "Hunyuan-Large는 업계에서 가장 큰 오픈 소스 Transformer 아키텍처 MoE 모델로, 총 3890억 개의 매개변수와 520억 개의 활성 매개변수를 가지고 있습니다." }, + "Yi-34B-Chat": { + "description": "Yi-1.5-34B는 원래 시리즈 모델의 뛰어난 일반 언어 능력을 유지하면서, 5000억 개의 고품질 토큰을 통해 점진적으로 훈련하여 수학적 논리 및 코드 능력을 크게 향상시켰습니다." + }, "abab5.5-chat": { "description": "생산성 시나리오를 위해 설계되었으며, 복잡한 작업 처리 및 효율적인 텍스트 생성을 지원하여 전문 분야 응용에 적합합니다." }, @@ -368,6 +380,9 @@ "codegeex-4": { "description": "CodeGeeX-4는 강력한 AI 프로그래밍 도우미로, 다양한 프로그래밍 언어에 대한 스마트 Q&A 및 코드 완성을 지원하여 개발 효율성을 높입니다." }, + "codegeex4-all-9b": { + "description": "CodeGeeX4-ALL-9B는 다국어 코드 생성 모델로, 코드 완성 및 생성, 코드 해석기, 웹 검색, 함수 호출, 저장소 수준의 코드 질문 응답 등 다양한 기능을 지원하여 소프트웨어 개발의 여러 시나리오를 포괄합니다. 10B 미만의 매개변수를 가진 최고의 코드 생성 모델입니다." + }, "codegemma": { "description": "CodeGemma는 다양한 프로그래밍 작업을 위한 경량 언어 모델로, 빠른 반복 및 통합을 지원합니다." }, @@ -422,6 +437,9 @@ "deepseek-chat": { "description": "일반 및 코드 능력을 융합한 새로운 오픈 소스 모델로, 기존 Chat 모델의 일반 대화 능력과 Coder 모델의 강력한 코드 처리 능력을 유지하면서 인간의 선호에 더 잘 맞춰졌습니다. 또한, DeepSeek-V2.5는 작문 작업, 지시 따르기 등 여러 측면에서 큰 향상을 이루었습니다." }, + "deepseek-coder-33B-instruct": { + "description": "DeepSeek Coder 33B는 코드 언어 모델로, 20조 개의 데이터로 훈련되었으며, 그 중 87%는 코드, 13%는 중문 및 영문입니다. 모델은 16K 창 크기와 빈칸 채우기 작업을 도입하여 프로젝트 수준의 코드 완성과 코드 조각 채우기 기능을 제공합니다." + }, "deepseek-coder-v2": { "description": "DeepSeek Coder V2는 오픈 소스 혼합 전문가 코드 모델로, 코드 작업에서 뛰어난 성능을 발휘하며, GPT4-Turbo와 경쟁할 수 있습니다." }, @@ -476,6 +494,9 @@ "gemini-exp-1114": { "description": "Gemini Exp 1114는 Google의 최신 실험적 다중 모달 AI 모델로, 빠른 처리 능력을 갖추고 있으며, 텍스트, 이미지 및 비디오 입력을 지원하여 다양한 작업에 효율적으로 확장할 수 있습니다." }, + "gemini-exp-1121": { + "description": "Gemini Exp 1121은 Google의 최신 실험적 다중 모달 AI 모델로, 빠른 처리 능력을 갖추고 있으며 텍스트, 이미지 및 비디오 입력을 지원하여 다양한 작업에 효율적으로 확장할 수 있습니다." + }, "gemma-7b-it": { "description": "Gemma 7B는 중소 규모 작업 처리에 적합하며, 비용 효과성을 갖추고 있습니다." }, @@ -503,6 +524,9 @@ "glm-4-0520": { "description": "GLM-4-0520은 최신 모델 버전으로, 매우 복잡하고 다양한 작업을 위해 설계되어 뛰어난 성능을 발휘합니다." }, + "glm-4-9b-chat": { + "description": "GLM-4-9B-Chat은 의미, 수학, 추론, 코드 및 지식 등 여러 분야에서 높은 성능을 보입니다. 웹 브라우징, 코드 실행, 사용자 정의 도구 호출 및 긴 텍스트 추론 기능도 갖추고 있습니다. 일본어, 한국어, 독일어를 포함한 26개 언어를 지원합니다." + }, "glm-4-air": { "description": "GLM-4-Air는 가성비가 높은 버전으로, GLM-4에 가까운 성능을 제공하며 빠른 속도와 저렴한 가격을 자랑합니다." }, diff --git a/locales/ko-KR/providers.json b/locales/ko-KR/providers.json index 825c45dba544..cb258bc01b8b 100644 --- a/locales/ko-KR/providers.json +++ b/locales/ko-KR/providers.json @@ -22,6 +22,9 @@ "fireworksai": { "description": "Fireworks AI는 기능 호출 및 다중 모드 처리를 전문으로 하는 선도적인 고급 언어 모델 서비스 제공업체입니다. 최신 모델인 Firefunction V2는 Llama-3를 기반으로 하며, 함수 호출, 대화 및 지시 따르기에 최적화되어 있습니다. 비주얼 언어 모델인 FireLLaVA-13B는 이미지와 텍스트 혼합 입력을 지원합니다. 기타 주목할 만한 모델로는 Llama 시리즈와 Mixtral 시리즈가 있으며, 효율적인 다국어 지시 따르기 및 생성 지원을 제공합니다." }, + "giteeai": { + "description": "Gitee AI의 서버리스 API는 AI 개발자에게 즉시 사용할 수 있는 대형 모델 추론 API 서비스를 제공합니다." + }, "github": { "description": "GitHub 모델을 통해 개발자는 AI 엔지니어가 되어 업계 최고의 AI 모델로 구축할 수 있습니다." }, diff --git a/locales/ko-KR/setting.json b/locales/ko-KR/setting.json index c1058f8efa2a..b8ec6e9f42b6 100644 --- a/locales/ko-KR/setting.json +++ b/locales/ko-KR/setting.json @@ -389,6 +389,11 @@ "modelDesc": "사용자의 질문을 최적화하는 데 사용되는 모델 지정", "title": "지식 베이스 질문 재작성" }, + "thread": { + "label": "하위 주제 명명 모델", + "modelDesc": "하위 주제 자동 이름 변경에 사용되는 모델 지정", + "title": "하위 주제 자동 명명" + }, "title": "시스템 도우미", "topic": { "label": "주제 명명 모델", diff --git a/locales/ko-KR/thread.json b/locales/ko-KR/thread.json new file mode 100644 index 000000000000..3a9575e2f73b --- /dev/null +++ b/locales/ko-KR/thread.json @@ -0,0 +1,5 @@ +{ + "actions": { + "confirmRemoveThread": "이 하위 주제를 삭제하려고 합니다. 삭제 후에는 복구할 수 없으니 신중하게 진행해 주시기 바랍니다." + } +} diff --git a/locales/nl-NL/chat.json b/locales/nl-NL/chat.json index 11a4693e183b..5b3935ca09f1 100644 --- a/locales/nl-NL/chat.json +++ b/locales/nl-NL/chat.json @@ -8,6 +8,7 @@ "agents": "Assistent", "artifact": { "generating": "Genereren", + "inThread": "Je kunt het niet bekijken in het subonderwerp, schakel over naar het hoofdgesprek om het te openen.", "thinking": "Denken", "thought": "Denken proces", "unknownTitle": "Onbenoemd werk" @@ -65,6 +66,7 @@ }, "messageAction": { "delAndRegenerate": "Verwijderen en opnieuw genereren", + "deleteDisabledByThreads": "Er zijn subonderwerpen, verwijderen is niet mogelijk.", "regenerate": "Opnieuw genereren" }, "newAgent": "Nieuwe assistent", @@ -121,6 +123,11 @@ "loading": "Bezig met herkennen...", "prettifying": "Aan het verfraaien..." }, + "thread": { + "divider": "Subonderwerp", + "threadMessageCount": "{{messageCount}} berichten", + "title": "Subonderwerp" + }, "tokenDetails": { "chats": "Chats", "historySummary": "Geschiedenis samenvatting", diff --git a/locales/nl-NL/common.json b/locales/nl-NL/common.json index 6efd2d2a5a9a..02731ebf847e 100644 --- a/locales/nl-NL/common.json +++ b/locales/nl-NL/common.json @@ -16,6 +16,8 @@ "back": "Terug", "batchDelete": "Batch verwijderen", "blog": "Product Blog", + "branching": "Subonderwerp aanmaken", + "branchingDisable": "De functie 'Subonderwerp' is alleen beschikbaar in de serverversie. Als je deze functie wilt gebruiken, schakel dan over naar de serverimplementatiemodus of gebruik LobeChat Cloud.", "cancel": "Annuleren", "changelog": "Wijzigingslogboek", "close": "Sluiten", diff --git a/locales/nl-NL/models.json b/locales/nl-NL/models.json index 3cbe517d5d66..926053d1c8ed 100644 --- a/locales/nl-NL/models.json +++ b/locales/nl-NL/models.json @@ -176,6 +176,15 @@ "Qwen/Qwen2.5-Math-72B-Instruct": { "description": "Qwen2.5-Math richt zich op het oplossen van wiskundige vraagstukken en biedt professionele antwoorden op moeilijke vragen." }, + "Qwen2-72B-Instruct": { + "description": "Qwen2 is de nieuwste serie van het Qwen-model, dat 128k context ondersteunt. In vergelijking met de huidige beste open-source modellen, overtreft Qwen2-72B op het gebied van natuurlijke taalbegrip, kennis, code, wiskunde en meertaligheid aanzienlijk de huidige toonaangevende modellen." + }, + "Qwen2-7B-Instruct": { + "description": "Qwen2 is de nieuwste serie van het Qwen-model, dat in staat is om de beste open-source modellen van gelijke grootte of zelfs grotere modellen te overtreffen. Qwen2 7B heeft aanzienlijke voordelen behaald in verschillende evaluaties, vooral op het gebied van code en begrip van het Chinees." + }, + "Qwen2.5-72B-Instruct": { + "description": "Qwen2.5-72B-Instruct ondersteunt 16k context en genereert lange teksten van meer dan 8K. Het ondersteunt functieaanroepen en naadloze interactie met externe systemen, wat de flexibiliteit en schaalbaarheid aanzienlijk vergroot. De kennis van het model is duidelijk toegenomen en de coderings- en wiskundige vaardigheden zijn sterk verbeterd, met ondersteuning voor meer dan 29 talen." + }, "SenseChat": { "description": "Basisversie van het model (V4), met een contextlengte van 4K, heeft sterke algemene capaciteiten." }, @@ -206,6 +215,9 @@ "Tencent/Hunyuan-A52B-Instruct": { "description": "Hunyuan-Large is het grootste open source Transformer-architectuur MoE-model in de industrie, met een totaal van 389 miljard parameters en 52 miljard geactiveerde parameters." }, + "Yi-34B-Chat": { + "description": "Yi-1.5-34B heeft de uitstekende algemene taalvaardigheden van de oorspronkelijke modelserie behouden en heeft door incrementele training van 500 miljard hoogwaardige tokens de wiskundige logica en codevaardigheden aanzienlijk verbeterd." + }, "abab5.5-chat": { "description": "Gericht op productiviteitsscenario's, ondersteunt complexe taakverwerking en efficiënte tekstgeneratie, geschikt voor professionele toepassingen." }, @@ -368,6 +380,9 @@ "codegeex-4": { "description": "CodeGeeX-4 is een krachtige AI-programmeerassistent die slimme vraag- en antwoordmogelijkheden en code-aanvulling ondersteunt voor verschillende programmeertalen, waardoor de ontwikkelingssnelheid wordt verhoogd." }, + "codegeex4-all-9b": { + "description": "CodeGeeX4-ALL-9B is een meertalig codegeneratiemodel dat uitgebreide functionaliteit biedt, waaronder code-aanvulling en -generatie, code-interpreter, webzoekfunctie, functieaanroepen en repository-niveau codevragen, en dekt verschillende scenario's in softwareontwikkeling. Het is een top codegeneratiemodel met minder dan 10B parameters." + }, "codegemma": { "description": "CodeGemma is een lichtgewicht taalmodel dat speciaal is ontworpen voor verschillende programmeertaken, ondersteunt snelle iteratie en integratie." }, @@ -422,6 +437,9 @@ "deepseek-chat": { "description": "Een nieuw open-source model dat algemene en code-capaciteiten combineert, behoudt niet alleen de algemene conversatiecapaciteiten van het oorspronkelijke Chat-model en de krachtige codeverwerkingscapaciteiten van het Coder-model, maar is ook beter afgestemd op menselijke voorkeuren. Bovendien heeft DeepSeek-V2.5 aanzienlijke verbeteringen gerealiseerd in schrijfopdrachten, instructievolging en andere gebieden." }, + "deepseek-coder-33B-instruct": { + "description": "DeepSeek Coder 33B is een code-taalmodel, getraind op 20 biljoen gegevens, waarvan 87% code en 13% in het Chinees en Engels. Het model introduceert een venstergrootte van 16K en invultaken, en biedt projectniveau code-aanvulling en fragmentinvulfunctionaliteit." + }, "deepseek-coder-v2": { "description": "DeepSeek Coder V2 is een open-source hybride expertcode-model, presteert uitstekend in code-taken en is vergelijkbaar met GPT4-Turbo." }, @@ -476,6 +494,9 @@ "gemini-exp-1114": { "description": "Gemini Exp 1114 is Google's nieuwste experimentele multimodale AI-model, met een snelle verwerkingscapaciteit, ondersteunt tekst-, beeld- en video-invoer, geschikt voor efficiënte schaling van diverse taken." }, + "gemini-exp-1121": { + "description": "Gemini Exp 1121 is Google's nieuwste experimentele multimodale AI-model, dat snel kan verwerken en ondersteuning biedt voor tekst-, beeld- en video-invoer, geschikt voor efficiënte opschaling van verschillende taken." + }, "gemma-7b-it": { "description": "Gemma 7B is geschikt voor het verwerken van middelgrote taken, met een goede kosteneffectiviteit." }, @@ -503,6 +524,9 @@ "glm-4-0520": { "description": "GLM-4-0520 is de nieuwste modelversie, speciaal ontworpen voor zeer complexe en diverse taken, met uitstekende prestaties." }, + "glm-4-9b-chat": { + "description": "GLM-4-9B-Chat presteert goed op het gebied van semantiek, wiskunde, redeneren, code en kennis. Het beschikt ook over webbrowserfunctionaliteit, code-uitvoering, aangepaste toolaanroepen en lange tekstredenering. Ondersteunt 26 talen, waaronder Japans, Koreaans en Duits." + }, "glm-4-air": { "description": "GLM-4-Air is een kosteneffectieve versie met prestaties die dicht bij GLM-4 liggen, met snelle snelheid en een betaalbare prijs." }, diff --git a/locales/nl-NL/providers.json b/locales/nl-NL/providers.json index bd59423bb76c..c7d975eb64ce 100644 --- a/locales/nl-NL/providers.json +++ b/locales/nl-NL/providers.json @@ -22,6 +22,9 @@ "fireworksai": { "description": "Fireworks AI is een toonaangevende aanbieder van geavanceerde taalmodellen, met een focus op functionele aanroepen en multimodale verwerking. Hun nieuwste model Firefunction V2 is gebaseerd op Llama-3 en geoptimaliseerd voor functieaanroepen, dialogen en het volgen van instructies. Het visuele taalmodel FireLLaVA-13B ondersteunt gemengde invoer van afbeeldingen en tekst. Andere opmerkelijke modellen zijn de Llama-serie en de Mixtral-serie, die efficiënte ondersteuning bieden voor meertalig volgen van instructies en genereren." }, + "giteeai": { + "description": "De Serverless API van Gitee AI biedt AI-ontwikkelaars kant-en-klare API-diensten voor inferentie met grote modellen." + }, "github": { "description": "Met GitHub-modellen kunnen ontwikkelaars AI-ingenieurs worden en bouwen met de toonaangevende AI-modellen in de industrie." }, diff --git a/locales/nl-NL/setting.json b/locales/nl-NL/setting.json index 25c28c4ecee2..df6696707560 100644 --- a/locales/nl-NL/setting.json +++ b/locales/nl-NL/setting.json @@ -389,6 +389,11 @@ "modelDesc": "Model dat is opgegeven voor het optimaliseren van gebruikersvragen", "title": "Herformuleren van vragen in de kennisbank" }, + "thread": { + "label": "Subtopic Naamgevingsmodel", + "modelDesc": "Model dat wordt gebruikt voor het automatisch hernoemen van subonderwerpen", + "title": "Automatische naamgeving van subonderwerpen" + }, "title": "Systeemassistent", "topic": { "label": "Onderwerp Naamgevingsmodel", diff --git a/locales/nl-NL/thread.json b/locales/nl-NL/thread.json new file mode 100644 index 000000000000..71868530ed8d --- /dev/null +++ b/locales/nl-NL/thread.json @@ -0,0 +1,5 @@ +{ + "actions": { + "confirmRemoveThread": "U staat op het punt dit subonderwerp te verwijderen. Na verwijdering kan het niet worden hersteld, dus wees voorzichtig." + } +} diff --git a/locales/pl-PL/chat.json b/locales/pl-PL/chat.json index bef23811007e..c13b847e5e3d 100644 --- a/locales/pl-PL/chat.json +++ b/locales/pl-PL/chat.json @@ -8,6 +8,7 @@ "agents": "Asystent", "artifact": { "generating": "Generowanie", + "inThread": "Nie można przeglądać w wątku, przełącz się na główny obszar rozmowy, aby otworzyć", "thinking": "Myślenie", "thought": "Proces myślenia", "unknownTitle": "Nienazwane dzieło" @@ -65,6 +66,7 @@ }, "messageAction": { "delAndRegenerate": "Usuń i wygeneruj ponownie", + "deleteDisabledByThreads": "Istnieją podwątki, nie można usunąć", "regenerate": "Wygeneruj ponownie" }, "newAgent": "Nowy asystent", @@ -121,6 +123,11 @@ "loading": "Rozpoznawanie...", "prettifying": "Upiększanie..." }, + "thread": { + "divider": "Podwątek", + "threadMessageCount": "{{messageCount}} wiadomości", + "title": "Podwątek" + }, "tokenDetails": { "chats": "Rozmowy", "historySummary": "Podsumowanie historii", diff --git a/locales/pl-PL/common.json b/locales/pl-PL/common.json index 82aa8830fa2d..2888f0607919 100644 --- a/locales/pl-PL/common.json +++ b/locales/pl-PL/common.json @@ -16,6 +16,8 @@ "back": "Powrót", "batchDelete": "Usuń wiele", "blog": "Blog produktowy", + "branching": "Utwórz podtemat", + "branchingDisable": "Funkcja „podtemat” jest dostępna tylko w wersji serwerowej. Aby skorzystać z tej funkcji, przełącz się na tryb wdrożenia serwera lub użyj LobeChat Cloud.", "cancel": "Anuluj", "changelog": "Dziennik zmian", "close": "Zamknij", diff --git a/locales/pl-PL/models.json b/locales/pl-PL/models.json index 0cdef041e56b..36f4ba12ae96 100644 --- a/locales/pl-PL/models.json +++ b/locales/pl-PL/models.json @@ -176,6 +176,15 @@ "Qwen/Qwen2.5-Math-72B-Instruct": { "description": "Qwen2.5-Math koncentruje się na rozwiązywaniu problemów w dziedzinie matematyki, oferując profesjonalne odpowiedzi na trudne pytania." }, + "Qwen2-72B-Instruct": { + "description": "Qwen2 to najnowsza seria modeli Qwen, obsługująca kontekst 128k. W porównaniu do obecnie najlepszych modeli open source, Qwen2-72B znacznie przewyższa w zakresie rozumienia języka naturalnego, wiedzy, kodowania, matematyki i wielu języków." + }, + "Qwen2-7B-Instruct": { + "description": "Qwen2 to najnowsza seria modeli Qwen, która przewyższa najlepsze modele open source o podobnej skali, a nawet większe. Qwen2 7B osiągnęła znaczną przewagę w wielu testach, szczególnie w zakresie kodowania i rozumienia języka chińskiego." + }, + "Qwen2.5-72B-Instruct": { + "description": "Qwen2.5-72B-Instruct obsługuje kontekst 16k, generując długie teksty przekraczające 8K. Wspiera wywołania funkcji i bezproblemową interakcję z systemami zewnętrznymi, znacznie zwiększając elastyczność i skalowalność. Wiedza modelu znacznie wzrosła, a jego zdolności w zakresie kodowania i matematyki uległy znacznemu poprawieniu, z obsługą ponad 29 języków." + }, "SenseChat": { "description": "Podstawowa wersja modelu (V4), długość kontekstu 4K, silne zdolności ogólne." }, @@ -206,6 +215,9 @@ "Tencent/Hunyuan-A52B-Instruct": { "description": "Hunyuan-Large to największy w branży otwarty model Transformer MoE, z 389 miliardami parametrów ogółem i 52 miliardami aktywowanych parametrów." }, + "Yi-34B-Chat": { + "description": "Yi-1.5-34B, zachowując doskonałe ogólne zdolności językowe oryginalnej serii modeli, znacznie poprawił zdolności logiczne i kodowania dzięki dodatkowym treningom na 500 miliardach wysokiej jakości tokenów." + }, "abab5.5-chat": { "description": "Skierowany do scenariuszy produkcyjnych, wspierający przetwarzanie złożonych zadań i efektywne generowanie tekstu, odpowiedni do zastosowań w profesjonalnych dziedzinach." }, @@ -368,6 +380,9 @@ "codegeex-4": { "description": "CodeGeeX-4 to potężny asystent programowania AI, obsługujący inteligentne pytania i odpowiedzi oraz uzupełnianie kodu w różnych językach programowania, zwiększając wydajność programistów." }, + "codegeex4-all-9b": { + "description": "CodeGeeX4-ALL-9B to model generowania kodu w wielu językach, który obsługuje kompleksowe funkcje, w tym uzupełnianie i generowanie kodu, interpreter kodu, wyszukiwanie w sieci, wywołania funkcji oraz pytania i odpowiedzi na poziomie repozytoriów, obejmując różne scenariusze rozwoju oprogramowania. Jest to wiodący model generowania kodu z mniej niż 10B parametrów." + }, "codegemma": { "description": "CodeGemma to lekki model językowy, specjalizujący się w różnych zadaniach programistycznych, wspierający szybkie iteracje i integrację." }, @@ -422,6 +437,9 @@ "deepseek-chat": { "description": "Nowy otwarty model łączący zdolności ogólne i kodowe, który nie tylko zachowuje ogólne zdolności dialogowe oryginalnego modelu czatu i potężne zdolności przetwarzania kodu modelu Coder, ale także lepiej dostosowuje się do ludzkich preferencji. Ponadto, DeepSeek-V2.5 osiągnął znaczne poprawy w zadaniach pisarskich, przestrzeganiu instrukcji i innych obszarach." }, + "deepseek-coder-33B-instruct": { + "description": "DeepSeek Coder 33B to model języka kodu, wytrenowany na 20 bilionach danych, z czego 87% to kod, a 13% to języki chiński i angielski. Model wprowadza okno o rozmiarze 16K oraz zadania uzupełniania, oferując funkcje uzupełniania kodu na poziomie projektu i wypełniania fragmentów." + }, "deepseek-coder-v2": { "description": "DeepSeek Coder V2 to otwarty model kodowy Mixture-of-Experts, który doskonale radzi sobie z zadaniami kodowymi, porównywalny z GPT4-Turbo." }, @@ -476,6 +494,9 @@ "gemini-exp-1114": { "description": "Gemini Exp 1114 to najnowszy eksperymentalny model AI o wielu modalnościach od Google, który charakteryzuje się szybkim przetwarzaniem i obsługuje wejścia tekstowe, obrazowe oraz wideo, co umożliwia wydajne rozszerzanie go na różne zadania." }, + "gemini-exp-1121": { + "description": "Gemini Exp 1121 to najnowszy eksperymentalny model AI Google, który charakteryzuje się szybkim przetwarzaniem i obsługuje wejścia tekstowe, obrazowe i wideo, co czyni go wydajnym narzędziem do rozwiązywania różnych zadań." + }, "gemma-7b-it": { "description": "Gemma 7B nadaje się do przetwarzania zadań średniej i małej skali, łącząc efektywność kosztową." }, @@ -503,6 +524,9 @@ "glm-4-0520": { "description": "GLM-4-0520 to najnowsza wersja modelu, zaprojektowana do wysoko złożonych i zróżnicowanych zadań, z doskonałymi wynikami." }, + "glm-4-9b-chat": { + "description": "GLM-4-9B-Chat wykazuje wysoką wydajność w wielu aspektach, takich jak semantyka, matematyka, wnioskowanie, kodowanie i wiedza. Posiada również funkcje przeglądania stron internetowych, wykonywania kodu, wywoływania niestandardowych narzędzi oraz wnioskowania z długich tekstów. Obsługuje 26 języków, w tym japoński, koreański i niemiecki." + }, "glm-4-air": { "description": "GLM-4-Air to opłacalna wersja, której wydajność jest zbliżona do GLM-4, oferująca szybkie działanie i przystępną cenę." }, diff --git a/locales/pl-PL/providers.json b/locales/pl-PL/providers.json index 30d88d66b868..845d9fc756d1 100644 --- a/locales/pl-PL/providers.json +++ b/locales/pl-PL/providers.json @@ -22,6 +22,9 @@ "fireworksai": { "description": "Fireworks AI to wiodący dostawca zaawansowanych modeli językowych, skoncentrowany na wywołaniach funkcji i przetwarzaniu multimodalnym. Jego najnowszy model Firefunction V2 oparty na Llama-3, zoptymalizowany do wywołań funkcji, dialogów i przestrzegania instrukcji. Model wizualny FireLLaVA-13B wspiera mieszane wejścia obrazów i tekstu. Inne znaczące modele to seria Llama i seria Mixtral, oferujące efektywne wsparcie dla wielojęzycznego przestrzegania instrukcji i generacji." }, + "giteeai": { + "description": "Serverless API Gitee AI oferuje gotowe do użycia usługi API do wnioskowania z dużych modeli dla deweloperów AI." + }, "github": { "description": "Dzięki modelom GitHub, deweloperzy mogą stać się inżynierami AI i budować z wykorzystaniem wiodących modeli AI w branży." }, diff --git a/locales/pl-PL/setting.json b/locales/pl-PL/setting.json index aa51e095d993..bf94eda58aba 100644 --- a/locales/pl-PL/setting.json +++ b/locales/pl-PL/setting.json @@ -389,6 +389,11 @@ "modelDesc": "Model używany do optymalizacji zapytań użytkowników", "title": "Przekształcenie zapytań w bazie wiedzy" }, + "thread": { + "label": "Model do nazywania podtematów", + "modelDesc": "Model używany do automatycznego zmieniania nazw podtematów", + "title": "Automatyczne nazywanie podtematów" + }, "title": "Asystent Systemowy", "topic": { "label": "Model nazewnictwa tematów", diff --git a/locales/pl-PL/thread.json b/locales/pl-PL/thread.json new file mode 100644 index 000000000000..f9ce08f2b4a9 --- /dev/null +++ b/locales/pl-PL/thread.json @@ -0,0 +1,5 @@ +{ + "actions": { + "confirmRemoveThread": "Zaraz usuniesz ten wątek, po usunięciu nie będzie można go przywrócić, proszę postępować ostrożnie." + } +} diff --git a/locales/pt-BR/chat.json b/locales/pt-BR/chat.json index d7ac31716ec4..d3268a3eefc7 100644 --- a/locales/pt-BR/chat.json +++ b/locales/pt-BR/chat.json @@ -8,6 +8,7 @@ "agents": "Assistente", "artifact": { "generating": "Gerando", + "inThread": "Não é possível visualizar no subtópico, por favor, mude para a área de conversa principal.", "thinking": "Pensando", "thought": "Processo de pensamento", "unknownTitle": "Obra sem título" @@ -65,6 +66,7 @@ }, "messageAction": { "delAndRegenerate": "Excluir e Regenerar", + "deleteDisabledByThreads": "Existem subtópicos, não é possível deletar.", "regenerate": "Regenerar" }, "newAgent": "Novo Assistente", @@ -121,6 +123,11 @@ "loading": "Reconhecendo...", "prettifying": "Embelezando..." }, + "thread": { + "divider": "Subtópico", + "threadMessageCount": "{{messageCount}} mensagens", + "title": "Subtópico" + }, "tokenDetails": { "chats": "Mensagens de bate-papo", "historySummary": "Resumo Histórico", diff --git a/locales/pt-BR/common.json b/locales/pt-BR/common.json index a74bef1612a4..b44b069ea3e8 100644 --- a/locales/pt-BR/common.json +++ b/locales/pt-BR/common.json @@ -16,6 +16,8 @@ "back": "Voltar", "batchDelete": "Excluir em massa", "blog": "Blog de Produtos", + "branching": "Criar subtópico", + "branchingDisable": "A funcionalidade de \"subtópico\" está disponível apenas na versão do servidor. Se precisar dessa funcionalidade, mude para o modo de implantação no servidor ou use o LobeChat Cloud.", "cancel": "Cancelar", "changelog": "Registro de alterações", "close": "Fechar", diff --git a/locales/pt-BR/models.json b/locales/pt-BR/models.json index 211ce0f50801..82fe3391457b 100644 --- a/locales/pt-BR/models.json +++ b/locales/pt-BR/models.json @@ -176,6 +176,15 @@ "Qwen/Qwen2.5-Math-72B-Instruct": { "description": "Qwen2.5-Math foca na resolução de problemas na área de matemática, oferecendo respostas especializadas para questões de alta dificuldade." }, + "Qwen2-72B-Instruct": { + "description": "Qwen2 é a mais recente série do modelo Qwen, suportando 128k de contexto. Em comparação com os melhores modelos de código aberto atuais, o Qwen2-72B supera significativamente os modelos líderes em várias capacidades, incluindo compreensão de linguagem natural, conhecimento, código, matemática e multilinguismo." + }, + "Qwen2-7B-Instruct": { + "description": "Qwen2 é a mais recente série do modelo Qwen, capaz de superar modelos de código aberto de tamanho equivalente e até mesmo modelos de maior escala. O Qwen2 7B obteve vantagens significativas em várias avaliações, especialmente em compreensão de código e chinês." + }, + "Qwen2.5-72B-Instruct": { + "description": "Qwen2.5-72B-Instruct suporta 16k de contexto, gerando textos longos com mais de 8K. Suporta chamadas de função e interação sem costura com sistemas externos, aumentando significativamente a flexibilidade e escalabilidade. O conhecimento do modelo aumentou consideravelmente, e suas habilidades em codificação e matemática melhoraram muito, com suporte a mais de 29 idiomas." + }, "SenseChat": { "description": "Modelo da versão básica (V4), com comprimento de contexto de 4K, com capacidades gerais poderosas." }, @@ -206,6 +215,9 @@ "Tencent/Hunyuan-A52B-Instruct": { "description": "Hunyuan-Large é o maior modelo MoE de arquitetura Transformer open source da indústria, com um total de 389 bilhões de parâmetros e 52 bilhões de parâmetros ativados." }, + "Yi-34B-Chat": { + "description": "Yi-1.5-34B, mantendo as excelentes habilidades linguísticas do modelo original, aumentou significativamente suas capacidades de lógica matemática e codificação através de treinamento incremental com 500 bilhões de tokens de alta qualidade." + }, "abab5.5-chat": { "description": "Voltado para cenários de produtividade, suportando o processamento de tarefas complexas e geração de texto eficiente, adequado para aplicações em áreas profissionais." }, @@ -368,6 +380,9 @@ "codegeex-4": { "description": "O CodeGeeX-4 é um poderoso assistente de programação AI, suportando perguntas e respostas inteligentes e autocompletar em várias linguagens de programação, aumentando a eficiência do desenvolvimento." }, + "codegeex4-all-9b": { + "description": "CodeGeeX4-ALL-9B é um modelo de geração de código multilíngue, suportando funcionalidades abrangentes, incluindo completude e geração de código, interpretador de código, busca na web, chamadas de função e perguntas e respostas em nível de repositório, cobrindo diversos cenários de desenvolvimento de software. É um modelo de geração de código de ponta com menos de 10B de parâmetros." + }, "codegemma": { "description": "CodeGemma é um modelo de linguagem leve especializado em diferentes tarefas de programação, suportando iterações rápidas e integração." }, @@ -422,6 +437,9 @@ "deepseek-chat": { "description": "Um novo modelo de código aberto que combina capacidades gerais e de codificação, não apenas preservando a capacidade de diálogo geral do modelo Chat original e a poderosa capacidade de processamento de código do modelo Coder, mas também alinhando-se melhor às preferências humanas. Além disso, o DeepSeek-V2.5 também alcançou melhorias significativas em várias áreas, como tarefas de escrita e seguimento de instruções." }, + "deepseek-coder-33B-instruct": { + "description": "DeepSeek Coder 33B é um modelo de linguagem de código, treinado com 20 trilhões de dados, dos quais 87% são código e 13% são em chinês e inglês. O modelo introduz uma janela de 16K e tarefas de preenchimento, oferecendo funcionalidades de completude de código e preenchimento de fragmentos em nível de projeto." + }, "deepseek-coder-v2": { "description": "DeepSeek Coder V2 é um modelo de código de especialistas abertos, destacando-se em tarefas de codificação, comparável ao GPT4-Turbo." }, @@ -476,6 +494,9 @@ "gemini-exp-1114": { "description": "O Gemini Exp 1114 é o mais recente modelo experimental de IA multimodal da Google, com capacidade de processamento rápido, suportando entradas de texto, imagem e vídeo, adequado para a expansão eficiente de várias tarefas." }, + "gemini-exp-1121": { + "description": "Gemini Exp 1121 é o mais recente modelo experimental de IA multimodal do Google, com capacidade de processamento rápido, suportando entradas de texto, imagem e vídeo, adequado para a escalabilidade eficiente em várias tarefas." + }, "gemma-7b-it": { "description": "Gemma 7B é adequado para o processamento de tarefas de pequeno a médio porte, combinando custo e eficiência." }, @@ -503,6 +524,9 @@ "glm-4-0520": { "description": "O GLM-4-0520 é a versão mais recente do modelo, projetada para tarefas altamente complexas e diversificadas, com desempenho excepcional." }, + "glm-4-9b-chat": { + "description": "GLM-4-9B-Chat apresenta alto desempenho em semântica, matemática, raciocínio, código e conhecimento. Também possui navegação na web, execução de código, chamadas de ferramentas personalizadas e raciocínio de texto longo. Suporta 26 idiomas, incluindo japonês, coreano e alemão." + }, "glm-4-air": { "description": "O GLM-4-Air é uma versão econômica, com desempenho próximo ao GLM-4, oferecendo alta velocidade a um preço acessível." }, diff --git a/locales/pt-BR/providers.json b/locales/pt-BR/providers.json index d12850723854..542f38d372a1 100644 --- a/locales/pt-BR/providers.json +++ b/locales/pt-BR/providers.json @@ -22,6 +22,9 @@ "fireworksai": { "description": "Fireworks AI é um fornecedor líder de serviços de modelos de linguagem avançados, focando em chamadas de função e processamento multimodal. Seu modelo mais recente, Firefunction V2, baseado em Llama-3, é otimizado para chamadas de função, diálogos e seguimento de instruções. O modelo de linguagem visual FireLLaVA-13B suporta entradas mistas de imagem e texto. Outros modelos notáveis incluem a série Llama e a série Mixtral, oferecendo suporte eficiente para seguimento e geração de instruções multilíngues." }, + "giteeai": { + "description": "A API Serverless do Gitee AI oferece serviços de API de inferência de grandes modelos prontos para uso para desenvolvedores de IA." + }, "github": { "description": "Com os Modelos do GitHub, os desenvolvedores podem se tornar engenheiros de IA e construir com os principais modelos de IA da indústria." }, diff --git a/locales/pt-BR/setting.json b/locales/pt-BR/setting.json index 508d72e31909..b3510be04cfb 100644 --- a/locales/pt-BR/setting.json +++ b/locales/pt-BR/setting.json @@ -389,6 +389,11 @@ "modelDesc": "Modelo designado para otimizar as perguntas dos usuários", "title": "Reescrita de perguntas do banco de dados" }, + "thread": { + "label": "Modelo de Nomeação de Subtópicos", + "modelDesc": "Modelo designado para a renomeação automática de subtópicos", + "title": "Nomeação Automática de Subtópicos" + }, "title": "Assistente do Sistema", "topic": { "label": "Modelo de Nomeação de Tópicos", diff --git a/locales/pt-BR/thread.json b/locales/pt-BR/thread.json new file mode 100644 index 000000000000..8c41712250cf --- /dev/null +++ b/locales/pt-BR/thread.json @@ -0,0 +1,5 @@ +{ + "actions": { + "confirmRemoveThread": "Você está prestes a remover este subtópico. Após a exclusão, não será possível recuperá-lo. Por favor, proceda com cautela." + } +} diff --git a/locales/ru-RU/chat.json b/locales/ru-RU/chat.json index 400fb380bac1..f1880154853d 100644 --- a/locales/ru-RU/chat.json +++ b/locales/ru-RU/chat.json @@ -8,6 +8,7 @@ "agents": "Ассистент", "artifact": { "generating": "Генерация", + "inThread": "Невозможно просмотреть в подтеме, переключитесь на основную область диалога", "thinking": "В процессе размышлений", "thought": "Процесс мышления", "unknownTitle": "Безымянное произведение" @@ -65,6 +66,7 @@ }, "messageAction": { "delAndRegenerate": "Удалить и пересоздать", + "deleteDisabledByThreads": "Существуют подтемы, удаление невозможно", "regenerate": "Пересоздать" }, "newAgent": "Создать помощника", @@ -121,6 +123,11 @@ "loading": "Распознавание...", "prettifying": "Форматирование..." }, + "thread": { + "divider": "Подтема", + "threadMessageCount": "{{messageCount}} сообщений", + "title": "Подтема" + }, "tokenDetails": { "chats": "Чаты", "historySummary": "Историческое резюме", diff --git a/locales/ru-RU/common.json b/locales/ru-RU/common.json index fe782d0b6274..6092f607fdcf 100644 --- a/locales/ru-RU/common.json +++ b/locales/ru-RU/common.json @@ -16,6 +16,8 @@ "back": "Назад", "batchDelete": "Пакетное удаление", "blog": "Блог о продуктах", + "branching": "Создать подтему", + "branchingDisable": "Функция «Подтема» доступна только в серверной версии. Если вам нужна эта функция, переключитесь на серверный режим развертывания или используйте LobeChat Cloud.", "cancel": "Отмена", "changelog": "История изменений", "close": "Закрыть", diff --git a/locales/ru-RU/models.json b/locales/ru-RU/models.json index b499ea6f4577..fa3c99365cd4 100644 --- a/locales/ru-RU/models.json +++ b/locales/ru-RU/models.json @@ -176,6 +176,15 @@ "Qwen/Qwen2.5-Math-72B-Instruct": { "description": "Qwen2.5-Math сосредоточен на решении математических задач, предоставляя профессиональные ответы на сложные вопросы." }, + "Qwen2-72B-Instruct": { + "description": "Qwen2 — это последняя серия моделей Qwen, поддерживающая контекст до 128k. По сравнению с текущими лучшими открытыми моделями, Qwen2-72B значительно превосходит ведущие модели по многим аспектам, включая понимание естественного языка, знания, код, математику и многоязычность." + }, + "Qwen2-7B-Instruct": { + "description": "Qwen2 — это последняя серия моделей Qwen, способная превосходить лучшие открытые модели сопоставимого размера и даже более крупные модели. Qwen2 7B демонстрирует значительные преимущества в нескольких тестах, особенно в понимании кода и китайского языка." + }, + "Qwen2.5-72B-Instruct": { + "description": "Qwen2.5-72B-Instruct поддерживает контекст до 16k, генерируя длинные тексты более 8K. Поддерживает вызовы функций и бесшовное взаимодействие с внешними системами, что значительно повышает гибкость и масштабируемость. Знания модели значительно увеличены, а способности в кодировании и математике значительно улучшены, поддерживает более 29 языков." + }, "SenseChat": { "description": "Базовая версия модели (V4), длина контекста 4K, обладает мощными универсальными возможностями." }, @@ -206,6 +215,9 @@ "Tencent/Hunyuan-A52B-Instruct": { "description": "Hunyuan-Large — это крупнейшая в отрасли открытая модель Transformer архитектуры MoE с общим количеством параметров 389 миллиардов и 52 миллиарда активных параметров." }, + "Yi-34B-Chat": { + "description": "Yi-1.5-34B, сохраняя выдающиеся универсальные языковые способности оригинальной серии моделей, значительно улучшила математическую логику и способности к кодированию благодаря инкрементальному обучению на 500 миллиардов высококачественных токенов." + }, "abab5.5-chat": { "description": "Ориентирован на производственные сценарии, поддерживает обработку сложных задач и эффективную генерацию текста, подходит для профессиональных приложений." }, @@ -368,6 +380,9 @@ "codegeex-4": { "description": "CodeGeeX-4 — это мощный AI помощник по программированию, поддерживающий интеллектуальные ответы и автозаполнение кода на различных языках программирования, повышая эффективность разработки." }, + "codegeex4-all-9b": { + "description": "CodeGeeX4-ALL-9B — это многоязычная модель генерации кода, поддерживающая полный спектр функций, включая автозаполнение и генерацию кода, интерпретатор кода, веб-поиск, вызовы функций и вопросы по коду на уровне репозитория, охватывающая различные сценарии разработки программного обеспечения. Это одна из лучших моделей генерации кода с количеством параметров менее 10B." + }, "codegemma": { "description": "CodeGemma — это легковесная языковая модель, специально разработанная для различных задач программирования, поддерживающая быструю итерацию и интеграцию." }, @@ -422,6 +437,9 @@ "deepseek-chat": { "description": "Новая открытая модель, объединяющая общие и кодовые возможности, не только сохраняет общие диалоговые способности оригинальной модели Chat и мощные возможности обработки кода модели Coder, но и лучше согласуется с человеческими предпочтениями. Кроме того, DeepSeek-V2.5 значительно улучшила производительность в таких задачах, как написание текстов и следование инструкциям." }, + "deepseek-coder-33B-instruct": { + "description": "DeepSeek Coder 33B — это модель языкового кодирования, обученная на 20 триллионах данных, из которых 87% составляют код, а 13% — китайский и английский языки. Модель использует размер окна 16K и задачи заполнения пропусков, предоставляя функции автозаполнения кода и заполнения фрагментов на уровне проектов." + }, "deepseek-coder-v2": { "description": "DeepSeek Coder V2 — это открытая смешанная экспертная модель кода, показывающая отличные результаты в задачах кода, сопоставимая с GPT4-Turbo." }, @@ -476,6 +494,9 @@ "gemini-exp-1114": { "description": "Gemini Exp 1114 — это новейшая экспериментальная многомодальная ИИ модель от Google, обладающая высокой скоростью обработки и поддерживающая текстовые, изображенческие и видеовходы, что позволяет эффективно расширять применение для различных задач." }, + "gemini-exp-1121": { + "description": "Gemini Exp 1121 — это последняя экспериментальная многомодальная AI модель от Google, обладающая высокой скоростью обработки, поддерживающая текстовые, графические и видеовходы, что делает её эффективной для масштабирования различных задач." + }, "gemma-7b-it": { "description": "Gemma 7B подходит для обработки задач среднего и малого масштаба, обеспечивая экономическую эффективность." }, @@ -503,6 +524,9 @@ "glm-4-0520": { "description": "GLM-4-0520 — это последняя версия модели, специально разработанная для высоко сложных и разнообразных задач, демонстрирующая выдающиеся результаты." }, + "glm-4-9b-chat": { + "description": "GLM-4-9B-Chat демонстрирует высокую производительность в семантике, математике, логическом мышлении, кодировании и знаниях. Также поддерживает веб-браузинг, выполнение кода, вызовы пользовательских инструментов и длинное текстовое рассуждение. Поддерживает 26 языков, включая японский, корейский и немецкий." + }, "glm-4-air": { "description": "GLM-4-Air — это экономически эффективная версия, производительность которой близка к GLM-4, обеспечивая высокую скорость и доступную цену." }, diff --git a/locales/ru-RU/providers.json b/locales/ru-RU/providers.json index 383a85611784..a2d678f32a72 100644 --- a/locales/ru-RU/providers.json +++ b/locales/ru-RU/providers.json @@ -22,6 +22,9 @@ "fireworksai": { "description": "Fireworks AI — это ведущий поставщик высококлассных языковых моделей, сосредоточенный на вызовах функций и мультимодальной обработке. Их последняя модель Firefunction V2 основана на Llama-3 и оптимизирована для вызовов функций, диалогов и выполнения инструкций. Модель визуального языка FireLLaVA-13B поддерживает смешанный ввод изображений и текста. Другие заметные модели включают серию Llama и серию Mixtral, предлагая эффективную поддержку многоязычных инструкций и генерации." }, + "giteeai": { + "description": "Серверный API Gitee AI предоставляет разработчикам ИИ готовый к использованию сервис API для вывода больших моделей." + }, "github": { "description": "С помощью моделей GitHub разработчики могут стать инженерами ИИ и создавать с использованием ведущих моделей ИИ в отрасли." }, diff --git a/locales/ru-RU/setting.json b/locales/ru-RU/setting.json index 3eb8599d808b..b2823f668595 100644 --- a/locales/ru-RU/setting.json +++ b/locales/ru-RU/setting.json @@ -389,6 +389,11 @@ "modelDesc": "Модель, предназначенная для оптимизации вопросов пользователей", "title": "Переписывание вопросов базы знаний" }, + "thread": { + "label": "Модель именования подтем", + "modelDesc": "Модель, используемая для автоматического переименования подтем", + "title": "Автоматическое именование подтем" + }, "title": "Системный агент", "topic": { "label": "Модель именования тем", diff --git a/locales/ru-RU/thread.json b/locales/ru-RU/thread.json new file mode 100644 index 000000000000..91cbf909d2d4 --- /dev/null +++ b/locales/ru-RU/thread.json @@ -0,0 +1,5 @@ +{ + "actions": { + "confirmRemoveThread": "Вы собираетесь удалить эту под-тему. После удаления восстановить её будет невозможно, пожалуйста, действуйте осторожно." + } +} diff --git a/locales/tr-TR/chat.json b/locales/tr-TR/chat.json index 8cf58367667d..0f61de77a3f7 100644 --- a/locales/tr-TR/chat.json +++ b/locales/tr-TR/chat.json @@ -8,6 +8,7 @@ "agents": "Asistan", "artifact": { "generating": "Üretiliyor", + "inThread": "Alt konu içinde görüntülenemiyor, lütfen ana konuşma alanına geçin", "thinking": "Düşünülüyor", "thought": "Düşünce Süreci", "unknownTitle": "İsimsiz Eser" @@ -65,6 +66,7 @@ }, "messageAction": { "delAndRegenerate": "Sil ve Yeniden Oluştur", + "deleteDisabledByThreads": "Alt konular mevcut, silinemez", "regenerate": "Yeniden Oluştur" }, "newAgent": "Yeni Asistan", @@ -121,6 +123,11 @@ "loading": "Tanımlanıyor...", "prettifying": "İyileştiriliyor..." }, + "thread": { + "divider": "Alt konu", + "threadMessageCount": "{{messageCount}} mesaj", + "title": "Alt konu" + }, "tokenDetails": { "chats": "Sohbetler", "historySummary": "Tarih Özeti", diff --git a/locales/tr-TR/common.json b/locales/tr-TR/common.json index 91727802c579..547f722dafab 100644 --- a/locales/tr-TR/common.json +++ b/locales/tr-TR/common.json @@ -16,6 +16,8 @@ "back": "Geri", "batchDelete": "Toplu Sil", "blog": "Ürün Blogu", + "branching": "Alt konu oluştur", + "branchingDisable": "«Alt konu» özelliği yalnızca sunucu sürümünde mevcuttur. Bu özelliği kullanmak için lütfen sunucu dağıtım moduna geçin veya LobeChat Cloud'u kullanın.", "cancel": "İptal", "changelog": "Changelog", "close": "Kapat", diff --git a/locales/tr-TR/models.json b/locales/tr-TR/models.json index 31be6def624b..c34d49fc8f90 100644 --- a/locales/tr-TR/models.json +++ b/locales/tr-TR/models.json @@ -176,6 +176,15 @@ "Qwen/Qwen2.5-Math-72B-Instruct": { "description": "Qwen2.5-Math, matematik alanındaki sorunları çözmeye odaklanır ve yüksek zorlukta sorulara profesyonel yanıtlar sunar." }, + "Qwen2-72B-Instruct": { + "description": "Qwen2, Qwen modelinin en yeni serisidir ve 128k bağlamı destekler. Mevcut en iyi açık kaynak modellerle karşılaştırıldığında, Qwen2-72B doğal dil anlama, bilgi, kod, matematik ve çok dilli yetenekler açısından mevcut lider modelleri önemli ölçüde aşmaktadır." + }, + "Qwen2-7B-Instruct": { + "description": "Qwen2, Qwen modelinin en yeni serisidir ve eşit ölçekli en iyi açık kaynak modelleri hatta daha büyük ölçekli modelleri aşabilmektedir. Qwen2 7B, birçok değerlendirmede belirgin bir avantaj elde etmiş, özellikle kod ve Çince anlama konusunda." + }, + "Qwen2.5-72B-Instruct": { + "description": "Qwen2.5-72B-Instruct, 16k bağlamı destekler ve 8K'dan uzun metinler üretebilir. Fonksiyon çağrısı ile dış sistemlerle sorunsuz etkileşim sağlar, esneklik ve ölçeklenebilirliği büyük ölçüde artırır. Modelin bilgisi belirgin şekilde artmış ve kodlama ile matematik yetenekleri büyük ölçüde geliştirilmiştir, 29'dan fazla dil desteği sunmaktadır." + }, "SenseChat": { "description": "Temel sürüm model (V4), 4K bağlam uzunluğu ile genel yetenekleri güçlüdür." }, @@ -206,6 +215,9 @@ "Tencent/Hunyuan-A52B-Instruct": { "description": "Hunyuan-Large, sektördeki en büyük açık kaynaklı Transformer mimarisi MoE modelidir ve toplam 389 milyar parametre ile 52 milyar etkin parametreye sahiptir." }, + "Yi-34B-Chat": { + "description": "Yi-1.5-34B, orijinal model serisinin mükemmel genel dil yeteneklerini korurken, 500 milyar yüksek kaliteli token ile artımlı eğitim sayesinde matematiksel mantık ve kodlama yeteneklerini büyük ölçüde artırmıştır." + }, "abab5.5-chat": { "description": "Üretkenlik senaryoları için tasarlanmış, karmaşık görev işleme ve verimli metin üretimini destekler, profesyonel alan uygulamaları için uygundur." }, @@ -368,6 +380,9 @@ "codegeex-4": { "description": "CodeGeeX-4, çeşitli programlama dillerinde akıllı soru-cevap ve kod tamamlama desteği sunan güçlü bir AI programlama asistanıdır, geliştirme verimliliğini artırır." }, + "codegeex4-all-9b": { + "description": "CodeGeeX4-ALL-9B, çok dilli kod üretim modeli olup, kod tamamlama ve üretimi, kod yorumlayıcı, web arama, fonksiyon çağrısı, depo düzeyinde kod soru-cevap gibi kapsamlı işlevleri destekler ve yazılım geliştirme için çeşitli senaryoları kapsar. 10B'den az parametreye sahip en iyi kod üretim modelidir." + }, "codegemma": { "description": "CodeGemma, farklı programlama görevleri için özel olarak tasarlanmış hafif bir dil modelidir, hızlı iterasyon ve entegrasyonu destekler." }, @@ -422,6 +437,9 @@ "deepseek-chat": { "description": "Genel ve kod yeteneklerini birleştiren yeni bir açık kaynak modeli, yalnızca mevcut Chat modelinin genel diyalog yeteneklerini ve Coder modelinin güçlü kod işleme yeteneklerini korumakla kalmaz, aynı zamanda insan tercihleri ile daha iyi hizalanmıştır. Ayrıca, DeepSeek-V2.5 yazım görevleri, talimat takibi gibi birçok alanda büyük iyileştirmeler sağlamıştır." }, + "deepseek-coder-33B-instruct": { + "description": "DeepSeek Coder 33B, 20 trilyon veri ile eğitilmiş bir kod dili modelidir. Bunun %87'si kod, %13'ü ise Çince ve İngilizce dillerindendir. Model, 16K pencere boyutu ve boşluk doldurma görevini tanıtarak proje düzeyinde kod tamamlama ve parça doldurma işlevi sunmaktadır." + }, "deepseek-coder-v2": { "description": "DeepSeek Coder V2, açık kaynaklı bir karışık uzman kod modelidir, kod görevlerinde mükemmel performans sergiler ve GPT4-Turbo ile karşılaştırılabilir." }, @@ -476,6 +494,9 @@ "gemini-exp-1114": { "description": "Gemini Exp 1114, Google'ın en son deneysel çok modlu AI modeli olup, hızlı işleme yeteneğine sahip, metin, görüntü ve video girişlerini desteklemekte ve çeşitli görevlerde verimli bir şekilde ölçeklenmektedir." }, + "gemini-exp-1121": { + "description": "Gemini Exp 1121, Google'un en yeni deneysel çok modlu AI modelidir. Hızlı işlem yeteneğine sahip olup, metin, görüntü ve video girişi destekler ve çeşitli görevler için verimli bir şekilde ölçeklenebilir." + }, "gemma-7b-it": { "description": "Gemma 7B, orta ölçekli görev işleme için uygundur ve maliyet etkinliği sunar." }, @@ -503,6 +524,9 @@ "glm-4-0520": { "description": "GLM-4-0520, son derece karmaşık ve çeşitli görevler için tasarlanmış en yeni model versiyonudur, olağanüstü performans sergiler." }, + "glm-4-9b-chat": { + "description": "GLM-4-9B-Chat, anlam, matematik, akıl yürütme, kod ve bilgi gibi birçok alanda yüksek performans göstermektedir. Ayrıca web tarayıcı, kod yürütme, özel araç çağrıları ve uzun metin akıl yürütme yeteneklerine sahiptir. Japonca, Korece, Almanca dahil olmak üzere 26 dil desteği sunmaktadır." + }, "glm-4-air": { "description": "GLM-4-Air, maliyet etkin bir versiyondur, GLM-4'e yakın performans sunar ve hızlı hız ve uygun fiyat sağlar." }, diff --git a/locales/tr-TR/providers.json b/locales/tr-TR/providers.json index 4b3d1c38422c..ef3780de485b 100644 --- a/locales/tr-TR/providers.json +++ b/locales/tr-TR/providers.json @@ -22,6 +22,9 @@ "fireworksai": { "description": "Fireworks AI, işlev çağrısı ve çok modlu işleme üzerine odaklanan önde gelen bir gelişmiş dil modeli hizmet sağlayıcısıdır. En son modeli Firefunction V2, Llama-3 tabanlıdır ve işlev çağrısı, diyalog ve talimat takibi için optimize edilmiştir. Görsel dil modeli FireLLaVA-13B, görüntü ve metin karışık girişi desteklemektedir. Diğer dikkat çekici modeller arasında Llama serisi ve Mixtral serisi bulunmaktadır ve etkili çok dilli talimat takibi ve üretim desteği sunmaktadır." }, + "giteeai": { + "description": "Gitee AI'nin Sunucusuz API'si, AI geliştiricilerine kutudan çıkar çıkmaz büyük model çıkarım API hizmeti sunar." + }, "github": { "description": "GitHub Modelleri ile geliştiriciler, AI mühendisleri olabilir ve sektörün önde gelen AI modelleri ile inşa edebilirler." }, diff --git a/locales/tr-TR/setting.json b/locales/tr-TR/setting.json index 2d2474700a04..6cb01ce9389e 100644 --- a/locales/tr-TR/setting.json +++ b/locales/tr-TR/setting.json @@ -389,6 +389,11 @@ "modelDesc": "Kullanıcı sorularını optimize etmek için kullanılan model", "title": "Bilgi Tabanı Soru Yeniden Yazımı" }, + "thread": { + "label": "Alt konu adlandırma modeli", + "modelDesc": "Alt konuların otomatik olarak yeniden adlandırılması için kullanılan model", + "title": "Alt konu otomatik adlandırma" + }, "title": "Sistem Asistanı", "topic": { "label": "Konu Adlandırma Modeli", diff --git a/locales/tr-TR/thread.json b/locales/tr-TR/thread.json new file mode 100644 index 000000000000..49654125e137 --- /dev/null +++ b/locales/tr-TR/thread.json @@ -0,0 +1,5 @@ +{ + "actions": { + "confirmRemoveThread": "Bu alt konuyu silmek üzeresiniz. Silindikten sonra geri alınamaz, lütfen dikkatli olun." + } +} diff --git a/locales/vi-VN/chat.json b/locales/vi-VN/chat.json index aa6c6ef08d1a..95584968ec22 100644 --- a/locales/vi-VN/chat.json +++ b/locales/vi-VN/chat.json @@ -8,6 +8,7 @@ "agents": "Trợ lý", "artifact": { "generating": "Đang tạo", + "inThread": "Không thể xem trong chủ đề con, vui lòng chuyển sang khu vực đối thoại chính để mở", "thinking": "Đang suy nghĩ", "thought": "Quá trình suy nghĩ", "unknownTitle": "Tác phẩm chưa được đặt tên" @@ -65,6 +66,7 @@ }, "messageAction": { "delAndRegenerate": "Xóa và tạo lại", + "deleteDisabledByThreads": "Có chủ đề con, không thể xóa", "regenerate": "Tạo lại" }, "newAgent": "Tạo trợ lý mới", @@ -121,6 +123,11 @@ "loading": "Đang nhận dạng...", "prettifying": "Đang tinh chỉnh..." }, + "thread": { + "divider": "Chủ đề con", + "threadMessageCount": "{{messageCount}} tin nhắn", + "title": "Chủ đề con" + }, "tokenDetails": { "chats": "Tin nhắn trò chuyện", "historySummary": "Tóm tắt lịch sử", diff --git a/locales/vi-VN/common.json b/locales/vi-VN/common.json index e8e3d3fe83a8..e07bd72a4bfe 100644 --- a/locales/vi-VN/common.json +++ b/locales/vi-VN/common.json @@ -16,6 +16,8 @@ "back": "Quay lại", "batchDelete": "Xóa hàng loạt", "blog": "Blog sản phẩm", + "branching": "Tạo chủ đề con", + "branchingDisable": "Chức năng «Chủ đề con» chỉ có sẵn trong phiên bản máy chủ. Nếu bạn cần chức năng này, hãy chuyển sang chế độ triển khai máy chủ hoặc sử dụng LobeChat Cloud.", "cancel": "Hủy", "changelog": "Nhật ký cập nhật", "close": "Đóng", diff --git a/locales/vi-VN/models.json b/locales/vi-VN/models.json index 4746ffff5cc2..ab3e27f5f508 100644 --- a/locales/vi-VN/models.json +++ b/locales/vi-VN/models.json @@ -176,6 +176,15 @@ "Qwen/Qwen2.5-Math-72B-Instruct": { "description": "Qwen2.5-Math tập trung vào việc giải quyết các vấn đề trong lĩnh vực toán học, cung cấp giải pháp chuyên nghiệp cho các bài toán khó." }, + "Qwen2-72B-Instruct": { + "description": "Qwen2 là dòng mô hình mới nhất của Qwen, hỗ trợ ngữ cảnh 128k, so với các mô hình mã nguồn mở tốt nhất hiện tại, Qwen2-72B vượt trội hơn hẳn trong nhiều khả năng như hiểu ngôn ngữ tự nhiên, kiến thức, mã, toán học và đa ngôn ngữ." + }, + "Qwen2-7B-Instruct": { + "description": "Qwen2 là dòng mô hình mới nhất của Qwen, có khả năng vượt qua các mô hình mã nguồn mở cùng quy mô hoặc thậm chí lớn hơn, Qwen2 7B đạt được lợi thế đáng kể trong nhiều bài kiểm tra, đặc biệt là trong việc hiểu mã và tiếng Trung." + }, + "Qwen2.5-72B-Instruct": { + "description": "Qwen2.5-72B-Instruct hỗ trợ ngữ cảnh 16k, tạo ra văn bản dài hơn 8K. Hỗ trợ gọi hàm và tương tác liền mạch với hệ thống bên ngoài, nâng cao đáng kể tính linh hoạt và khả năng mở rộng. Kiến thức của mô hình đã tăng lên rõ rệt và khả năng mã hóa cũng như toán học được cải thiện đáng kể, hỗ trợ hơn 29 ngôn ngữ." + }, "SenseChat": { "description": "Mô hình phiên bản cơ bản (V4), độ dài ngữ cảnh 4K, khả năng tổng quát mạnh mẽ." }, @@ -206,6 +215,9 @@ "Tencent/Hunyuan-A52B-Instruct": { "description": "Hunyuan-Large là mô hình MoE kiến trúc Transformer mã nguồn mở lớn nhất trong ngành, với tổng số tham số là 3890 tỷ và 52 tỷ tham số kích hoạt." }, + "Yi-34B-Chat": { + "description": "Yi-1.5-34B, trong khi vẫn giữ được khả năng ngôn ngữ chung xuất sắc của dòng mô hình gốc, đã tăng cường đào tạo với 500 tỷ token chất lượng cao, nâng cao đáng kể khả năng logic toán học và mã." + }, "abab5.5-chat": { "description": "Hướng đến các tình huống sản xuất, hỗ trợ xử lý nhiệm vụ phức tạp và sinh văn bản hiệu quả, phù hợp cho các ứng dụng trong lĩnh vực chuyên môn." }, @@ -368,6 +380,9 @@ "codegeex-4": { "description": "CodeGeeX-4 là trợ lý lập trình AI mạnh mẽ, hỗ trợ nhiều ngôn ngữ lập trình với câu hỏi thông minh và hoàn thành mã, nâng cao hiệu suất phát triển." }, + "codegeex4-all-9b": { + "description": "CodeGeeX4-ALL-9B là một mô hình tạo mã đa ngôn ngữ, hỗ trợ đầy đủ các chức năng như hoàn thành và tạo mã, trình giải thích mã, tìm kiếm trên mạng, gọi hàm, và hỏi đáp mã cấp kho, bao phủ nhiều tình huống trong phát triển phần mềm. Đây là mô hình tạo mã hàng đầu với số tham số dưới 10B." + }, "codegemma": { "description": "CodeGemma là mô hình ngôn ngữ nhẹ chuyên dụng cho các nhiệm vụ lập trình khác nhau, hỗ trợ lặp lại và tích hợp nhanh chóng." }, @@ -422,6 +437,9 @@ "deepseek-chat": { "description": "Mô hình mã nguồn mở mới kết hợp khả năng tổng quát và mã, không chỉ giữ lại khả năng đối thoại tổng quát của mô hình Chat ban đầu và khả năng xử lý mã mạnh mẽ của mô hình Coder, mà còn tốt hơn trong việc phù hợp với sở thích của con người. Hơn nữa, DeepSeek-V2.5 cũng đã đạt được sự cải thiện lớn trong nhiều khía cạnh như nhiệm vụ viết, theo dõi chỉ dẫn." }, + "deepseek-coder-33B-instruct": { + "description": "DeepSeek Coder 33B là một mô hình ngôn ngữ mã, được đào tạo trên 20 triệu tỷ dữ liệu, trong đó 87% là mã và 13% là ngôn ngữ Trung và Anh. Mô hình này giới thiệu kích thước cửa sổ 16K và nhiệm vụ điền chỗ trống, cung cấp chức năng hoàn thành mã và điền đoạn mã ở cấp độ dự án." + }, "deepseek-coder-v2": { "description": "DeepSeek Coder V2 là mô hình mã nguồn mở hỗn hợp chuyên gia, thể hiện xuất sắc trong các nhiệm vụ mã, tương đương với GPT4-Turbo." }, @@ -476,6 +494,9 @@ "gemini-exp-1114": { "description": "Gemini Exp 1114 là mô hình AI đa phương thức thử nghiệm mới nhất của Google, có khả năng xử lý nhanh, hỗ trợ đầu vào văn bản, hình ảnh và video, phù hợp với việc mở rộng hiệu quả cho nhiều nhiệm vụ." }, + "gemini-exp-1121": { + "description": "Gemini Exp 1121 là mô hình AI đa phương thức thử nghiệm mới nhất của Google, có khả năng xử lý nhanh chóng, hỗ trợ đầu vào văn bản, hình ảnh và video, phù hợp cho việc mở rộng hiệu quả cho nhiều nhiệm vụ." + }, "gemma-7b-it": { "description": "Gemma 7B phù hợp cho việc xử lý các nhiệm vụ quy mô vừa và nhỏ, đồng thời mang lại hiệu quả chi phí." }, @@ -503,6 +524,9 @@ "glm-4-0520": { "description": "GLM-4-0520 là phiên bản mô hình mới nhất, được thiết kế cho các nhiệm vụ phức tạp và đa dạng, thể hiện xuất sắc." }, + "glm-4-9b-chat": { + "description": "GLM-4-9B-Chat thể hiện hiệu suất cao trong nhiều lĩnh vực như ngữ nghĩa, toán học, suy luận, mã và kiến thức. Nó còn có khả năng duyệt web, thực thi mã, gọi công cụ tùy chỉnh và suy luận văn bản dài. Hỗ trợ 26 ngôn ngữ, bao gồm tiếng Nhật, tiếng Hàn và tiếng Đức." + }, "glm-4-air": { "description": "GLM-4-Air là phiên bản có giá trị sử dụng cao, hiệu suất gần giống GLM-4, cung cấp tốc độ nhanh và giá cả phải chăng." }, diff --git a/locales/vi-VN/providers.json b/locales/vi-VN/providers.json index 4cd5633be6be..08cd582a2741 100644 --- a/locales/vi-VN/providers.json +++ b/locales/vi-VN/providers.json @@ -22,6 +22,9 @@ "fireworksai": { "description": "Fireworks AI là nhà cung cấp dịch vụ mô hình ngôn ngữ cao cấp hàng đầu, tập trung vào gọi chức năng và xử lý đa phương thức. Mô hình mới nhất của họ, Firefunction V2, dựa trên Llama-3, được tối ưu hóa cho gọi chức năng, đối thoại và tuân theo chỉ dẫn. Mô hình ngôn ngữ hình ảnh FireLLaVA-13B hỗ trợ đầu vào hỗn hợp hình ảnh và văn bản. Các mô hình đáng chú ý khác bao gồm dòng Llama và dòng Mixtral, cung cấp hỗ trợ cho việc tuân theo và tạo ra chỉ dẫn đa ngôn ngữ hiệu quả." }, + "giteeai": { + "description": "API Serverless của Gitee AI cung cấp dịch vụ API suy diễn mô hình lớn sẵn sàng cho các nhà phát triển AI." + }, "github": { "description": "Với GitHub Models, các nhà phát triển có thể trở thành kỹ sư AI và xây dựng với các mô hình AI hàng đầu trong ngành." }, diff --git a/locales/vi-VN/setting.json b/locales/vi-VN/setting.json index aa14d7e5b4d3..868f347a0867 100644 --- a/locales/vi-VN/setting.json +++ b/locales/vi-VN/setting.json @@ -389,6 +389,11 @@ "modelDesc": "Mô hình được chỉ định để tối ưu hóa câu hỏi của người dùng", "title": "Viết lại câu hỏi trong kho kiến thức" }, + "thread": { + "label": "Mô hình đặt tên chủ đề phụ", + "modelDesc": "Mô hình được chỉ định để tự động đổi tên chủ đề phụ", + "title": "Tự động đặt tên chủ đề phụ" + }, "title": "Trợ lý hệ thống", "topic": { "label": "Mô hình đặt tên chủ đề", diff --git a/locales/vi-VN/thread.json b/locales/vi-VN/thread.json new file mode 100644 index 000000000000..c0dd22bb3d1d --- /dev/null +++ b/locales/vi-VN/thread.json @@ -0,0 +1,5 @@ +{ + "actions": { + "confirmRemoveThread": "Bạn sắp xóa chủ đề con này, sau khi xóa sẽ không thể khôi phục, xin hãy cẩn thận khi thực hiện." + } +} diff --git a/locales/zh-CN/chat.json b/locales/zh-CN/chat.json index 79d7f1a5f04f..beb82fe02dd6 100644 --- a/locales/zh-CN/chat.json +++ b/locales/zh-CN/chat.json @@ -8,6 +8,7 @@ "agents": "助手", "artifact": { "generating": "生成中", + "inThread": "子话题中无法查看,请切换到主对话区打开", "thinking": "思考中", "thought": "思考过程", "unknownTitle": "未命名作品" @@ -65,6 +66,7 @@ }, "messageAction": { "delAndRegenerate": "删除并重新生成", + "deleteDisabledByThreads": "存在子话题,不能删除", "regenerate": "重新生成" }, "newAgent": "新建助手", @@ -121,6 +123,11 @@ "loading": "识别中...", "prettifying": "润色中..." }, + "thread": { + "divider": "子话题", + "threadMessageCount": "{{messageCount}} 条消息", + "title": "子话题" + }, "tokenDetails": { "chats": "会话消息", "historySummary": "历史总结", diff --git a/locales/zh-CN/common.json b/locales/zh-CN/common.json index 90509fe84680..3593ffec4373 100644 --- a/locales/zh-CN/common.json +++ b/locales/zh-CN/common.json @@ -16,6 +16,8 @@ "back": "返回", "batchDelete": "批量删除", "blog": "产品博客", + "branching": "创建子话题", + "branchingDisable": "「子话题」功能仅服务端版本可用,如需该功能,请切换到服务端部署模式或使用 LobeChat Cloud", "cancel": "取消", "changelog": "更新日志", "close": "关闭", diff --git a/locales/zh-CN/models.json b/locales/zh-CN/models.json index ae220c63fb03..a3ddef5d8236 100644 --- a/locales/zh-CN/models.json +++ b/locales/zh-CN/models.json @@ -176,6 +176,15 @@ "Qwen/Qwen2.5-Math-72B-Instruct": { "description": "Qwen2.5-Math 专注于数学领域的问题求解,为高难度题提供专业解答。" }, + "Qwen2-72B-Instruct": { + "description": "Qwen2 是 Qwen 模型的最新系列,支持 128k 上下文,对比当前最优的开源模型,Qwen2-72B 在自然语言理解、知识、代码、数学及多语言等多项能力上均显著超越当前领先的模型。" + }, + "Qwen2-7B-Instruct": { + "description": "Qwen2 是 Qwen 模型的最新系列,能够超越同等规模的最优开源模型甚至更大规模的模型,Qwen2 7B 在多个评测上取得显著的优势,尤其是代码及中文理解上。" + }, + "Qwen2.5-72B-Instruct": { + "description": "Qwen2.5-72B-Instruct 支持 16k 上下文, 生成长文本超过 8K 。支持 function call 与外部系统无缝交互,极大提升了灵活性和扩展性。模型知识明显增加,并且大大提高了编码和数学能力, 多语言支持超过 29 种" + }, "SenseChat": { "description": "基础版本模型 (V4),4K上下文长度,通用能力强大" }, @@ -206,6 +215,9 @@ "Tencent/Hunyuan-A52B-Instruct": { "description": "Hunyuan-Large 是业界最大的开源 Transformer 架构 MoE 模型,拥有 3890 亿总参数量和 520 亿激活参数量。" }, + "Yi-34B-Chat": { + "description": "Yi-1.5-34B 在保持原系列模型优秀的通用语言能力的前提下,通过增量训练 5 千亿高质量 token,大幅提高了数学逻辑、代码能力。" + }, "abab5.5-chat": { "description": "面向生产力场景,支持复杂任务处理和高效文本生成,适用于专业领域应用。" }, @@ -368,6 +380,9 @@ "codegeex-4": { "description": "CodeGeeX-4 是强大的AI编程助手,支持多种编程语言的智能问答与代码补全,提升开发效率。" }, + "codegeex4-all-9b": { + "description": "CodeGeeX4-ALL-9B 是一个多语言代码生成模型,支持包括代码补全和生成、代码解释器、网络搜索、函数调用、仓库级代码问答在内的全面功能,覆盖软件开发的各种场景。是参数少于 10B 的顶尖代码生成模型。" + }, "codegemma": { "description": "CodeGemma 专用于不同编程任务的轻量级语言模型,支持快速迭代和集成。" }, @@ -422,6 +437,9 @@ "deepseek-chat": { "description": "融合通用与代码能力的全新开源模型, 不仅保留了原有 Chat 模型的通用对话能力和 Coder 模型的强大代码处理能力,还更好地对齐了人类偏好。此外,DeepSeek-V2.5 在写作任务、指令跟随等多个方面也实现了大幅提升。" }, + "deepseek-coder-33B-instruct": { + "description": "DeepSeek Coder 33B 是一个代码语言模型, 基于 2 万亿数据训练而成,其中 87% 为代码, 13% 为中英文语言。模型引入 16K 窗口大小和填空任务,提供项目级别的代码补全和片段填充功能。" + }, "deepseek-coder-v2": { "description": "DeepSeek Coder V2 是开源的混合专家代码模型,在代码任务方面表现优异,与 GPT4-Turbo 相媲美。" }, @@ -476,6 +494,9 @@ "gemini-exp-1114": { "description": "Gemini Exp 1114 是Google最新的实验性多模态AI模型,具备快速处理能力,支持文本、图像和视频输入,适用于多种任务的高效扩展。" }, + "gemini-exp-1121": { + "description": "Gemini Exp 1121 是Google最新的实验性多模态AI模型,具备快速处理能力,支持文本、图像和视频输入,适用于多种任务的高效扩展。" + }, "gemma-7b-it": { "description": "Gemma 7B 适合中小规模任务处理,兼具成本效益。" }, @@ -503,6 +524,9 @@ "glm-4-0520": { "description": "GLM-4-0520 是最新模型版本,专为高度复杂和多样化任务设计,表现卓越。" }, + "glm-4-9b-chat": { + "description": "GLM-4-9B-Chat 在语义、数学、推理、代码和知识等多方面均表现出较高性能。还具备网页浏览、代码执行、自定义工具调用和长文本推理。 支持包括日语,韩语,德语在内的 26 种语言。" + }, "glm-4-air": { "description": "GLM-4-Air 是性价比高的版本,性能接近GLM-4,提供快速度和实惠的价格。" }, diff --git a/locales/zh-CN/providers.json b/locales/zh-CN/providers.json index cb41fbb3f200..5fb2c98fbe2f 100644 --- a/locales/zh-CN/providers.json +++ b/locales/zh-CN/providers.json @@ -22,6 +22,9 @@ "fireworksai": { "description": "Fireworks AI 是一家领先的高级语言模型服务商,专注于功能调用和多模态处理。其最新模型 Firefunction V2 基于 Llama-3,优化用于函数调用、对话及指令跟随。视觉语言模型 FireLLaVA-13B 支持图像和文本混合输入。其他 notable 模型包括 Llama 系列和 Mixtral 系列,提供高效的多语言指令跟随与生成支持。" }, + "giteeai": { + "description": "Gitee AI 的 Serverless API 为 AI 开发者提供开箱即用的大模型推理 API 服务。" + }, "github": { "description": "通过GitHub模型,开发人员可以成为AI工程师,并使用行业领先的AI模型进行构建。" }, diff --git a/locales/zh-CN/setting.json b/locales/zh-CN/setting.json index 8091c7067bf6..8d07a4ceb118 100644 --- a/locales/zh-CN/setting.json +++ b/locales/zh-CN/setting.json @@ -389,6 +389,11 @@ "modelDesc": "指定用于优化用户提问的模型", "title": "知识库提问重写" }, + "thread": { + "label": "子话题命名模型", + "modelDesc": "指定用于子话题自动重命名的模型", + "title": "子话题自动命名" + }, "title": "系统助手", "topic": { "label": "话题命名模型", diff --git a/locales/zh-CN/thread.json b/locales/zh-CN/thread.json new file mode 100644 index 000000000000..d54599404098 --- /dev/null +++ b/locales/zh-CN/thread.json @@ -0,0 +1,5 @@ +{ + "actions": { + "confirmRemoveThread": "即将删除该子话题,删除后将不可恢复,请谨慎操作。" + } +} diff --git a/locales/zh-TW/chat.json b/locales/zh-TW/chat.json index 726e4331a287..0420f783f286 100644 --- a/locales/zh-TW/chat.json +++ b/locales/zh-TW/chat.json @@ -8,6 +8,7 @@ "agents": "助手", "artifact": { "generating": "生成中", + "inThread": "子話題中無法查看,請切換到主對話區打開", "thinking": "思考中", "thought": "思考過程", "unknownTitle": "未命名作品" @@ -65,6 +66,7 @@ }, "messageAction": { "delAndRegenerate": "刪除並重新生成", + "deleteDisabledByThreads": "存在子話題,無法刪除", "regenerate": "重新生成" }, "newAgent": "新建助手", @@ -121,6 +123,11 @@ "loading": "識別中...", "prettifying": "潤色中..." }, + "thread": { + "divider": "子話題", + "threadMessageCount": "{{messageCount}} 條消息", + "title": "子話題" + }, "tokenDetails": { "chats": "聊天訊息", "historySummary": "歷史總結", diff --git a/locales/zh-TW/common.json b/locales/zh-TW/common.json index e771e66ea84d..e9c717027288 100644 --- a/locales/zh-TW/common.json +++ b/locales/zh-TW/common.json @@ -16,6 +16,8 @@ "back": "返回", "batchDelete": "批次刪除", "blog": "產品部落格", + "branching": "建立子主題", + "branchingDisable": "「子主題」功能僅在伺服器端版本可用,如需該功能,請切換到伺服器端部署模式或使用 LobeChat Cloud", "cancel": "取消", "changelog": "變更日誌", "close": "關閉", diff --git a/locales/zh-TW/models.json b/locales/zh-TW/models.json index 93fbcfa318cf..98fee751bfc4 100644 --- a/locales/zh-TW/models.json +++ b/locales/zh-TW/models.json @@ -176,6 +176,15 @@ "Qwen/Qwen2.5-Math-72B-Instruct": { "description": "Qwen2.5-Math專注於數學領域的問題求解,為高難度題提供專業解答。" }, + "Qwen2-72B-Instruct": { + "description": "Qwen2 是 Qwen 模型的最新系列,支持 128k 上下文,對比當前最優的開源模型,Qwen2-72B 在自然語言理解、知識、代碼、數學及多語言等多項能力上均顯著超越當前領先的模型。" + }, + "Qwen2-7B-Instruct": { + "description": "Qwen2 是 Qwen 模型的最新系列,能夠超越同等規模的最優開源模型甚至更大規模的模型,Qwen2 7B 在多個評測上取得顯著的優勢,尤其是在代碼及中文理解上。" + }, + "Qwen2.5-72B-Instruct": { + "description": "Qwen2.5-72B-Instruct 支持 16k 上下文,生成長文本超過 8K。支持 function call 與外部系統無縫互動,極大提升了靈活性和擴展性。模型知識明顯增加,並且大幅提高了編碼和數學能力,多語言支持超過 29 種。" + }, "SenseChat": { "description": "基礎版本模型 (V4),4K上下文長度,通用能力強大" }, @@ -206,6 +215,9 @@ "Tencent/Hunyuan-A52B-Instruct": { "description": "Hunyuan-Large 是業界最大的開源 Transformer 架構 MoE 模型,擁有 3890 億總參數量和 520 億激活參數量。" }, + "Yi-34B-Chat": { + "description": "Yi-1.5-34B 在保持原系列模型優秀的通用語言能力的前提下,通過增量訓練 5 千億高質量 token,大幅提高了數學邏輯和代碼能力。" + }, "abab5.5-chat": { "description": "面向生產力場景,支持複雜任務處理和高效文本生成,適用於專業領域應用。" }, @@ -368,6 +380,9 @@ "codegeex-4": { "description": "CodeGeeX-4是一個強大的AI編程助手,支持多種編程語言的智能問答與代碼補全,提升開發效率。" }, + "codegeex4-all-9b": { + "description": "CodeGeeX4-ALL-9B 是一個多語言代碼生成模型,支持包括代碼補全和生成、代碼解釋器、網絡搜索、函數調用、倉庫級代碼問答在內的全面功能,覆蓋軟件開發的各種場景。是參數少於 10B 的頂尖代碼生成模型。" + }, "codegemma": { "description": "CodeGemma 專用于不同編程任務的輕量級語言模型,支持快速迭代和集成。" }, @@ -422,6 +437,9 @@ "deepseek-chat": { "description": "融合通用與代碼能力的全新開源模型,不僅保留了原有 Chat 模型的通用對話能力和 Coder 模型的強大代碼處理能力,還更好地對齊了人類偏好。此外,DeepSeek-V2.5 在寫作任務、指令跟隨等多個方面也實現了大幅提升。" }, + "deepseek-coder-33B-instruct": { + "description": "DeepSeek Coder 33B 是一個代碼語言模型,基於 2 萬億數據訓練而成,其中 87% 為代碼,13% 為中英文語言。模型引入 16K 窗口大小和填空任務,提供項目級別的代碼補全和片段填充功能。" + }, "deepseek-coder-v2": { "description": "DeepSeek Coder V2 是開源的混合專家代碼模型,在代碼任務方面表現優異,與 GPT4-Turbo 相媲美。" }, @@ -476,6 +494,9 @@ "gemini-exp-1114": { "description": "Gemini Exp 1114 是 Google 最新的實驗性多模態 AI 模型,具備快速處理能力,支持文本、影像和影片輸入,適用於多種任務的高效擴展。" }, + "gemini-exp-1121": { + "description": "Gemini Exp 1121 是 Google 最新的實驗性多模態 AI 模型,具備快速處理能力,支持文本、圖像和視頻輸入,適用於多種任務的高效擴展。" + }, "gemma-7b-it": { "description": "Gemma 7B 適合中小規模任務處理,兼具成本效益。" }, @@ -503,6 +524,9 @@ "glm-4-0520": { "description": "GLM-4-0520是最新模型版本,專為高度複雜和多樣化任務設計,表現卓越。" }, + "glm-4-9b-chat": { + "description": "GLM-4-9B-Chat 在語義、數學、推理、代碼和知識等多方面均表現出較高性能。還具備網頁瀏覽、代碼執行、自定義工具調用和長文本推理。支持包括日語、韓語、德語在內的 26 種語言。" + }, "glm-4-air": { "description": "GLM-4-Air是性價比高的版本,性能接近GLM-4,提供快速度和實惠的價格。" }, diff --git a/locales/zh-TW/providers.json b/locales/zh-TW/providers.json index 7f26928b57a4..4d2cfdf6a66c 100644 --- a/locales/zh-TW/providers.json +++ b/locales/zh-TW/providers.json @@ -22,6 +22,9 @@ "fireworksai": { "description": "Fireworks AI 是一家領先的高級語言模型服務商,專注於功能調用和多模態處理。其最新模型 Firefunction V2 基於 Llama-3,優化用於函數調用、對話及指令跟隨。視覺語言模型 FireLLaVA-13B 支持圖像和文本混合輸入。其他 notable 模型包括 Llama 系列和 Mixtral 系列,提供高效的多語言指令跟隨與生成支持。" }, + "giteeai": { + "description": "Gitee AI 的 Serverless API 為 AI 開發者提供即開即用的大模型推理 API 服務。" + }, "github": { "description": "透過 GitHub 模型,開發者可以成為 AI 工程師,並使用業界領先的 AI 模型進行建設。" }, diff --git a/locales/zh-TW/setting.json b/locales/zh-TW/setting.json index 79b126e42ae9..cd09a1b15503 100644 --- a/locales/zh-TW/setting.json +++ b/locales/zh-TW/setting.json @@ -389,6 +389,11 @@ "modelDesc": "指定用於優化用戶提問的模型", "title": "知識庫提問重寫" }, + "thread": { + "label": "子主題命名模型", + "modelDesc": "指定用於子主題自動重命名的模型", + "title": "子主題自動命名" + }, "title": "系統助手", "topic": { "label": "話題命名模型", diff --git a/locales/zh-TW/thread.json b/locales/zh-TW/thread.json new file mode 100644 index 000000000000..63c55e8972b0 --- /dev/null +++ b/locales/zh-TW/thread.json @@ -0,0 +1,5 @@ +{ + "actions": { + "confirmRemoveThread": "即將刪除該子話題,刪除後將無法恢復,請謹慎操作。" + } +}