Skip to content

Commit

Permalink
🔧 chore: Update Readme Sync Workflow (lobehub#5071)
Browse files Browse the repository at this point in the history
  • Loading branch information
canisminor1990 authored Dec 18, 2024
1 parent 1777816 commit 470c186
Show file tree
Hide file tree
Showing 51 changed files with 636 additions and 750 deletions.
265 changes: 150 additions & 115 deletions README.ja-JP.md

Large diffs are not rendered by default.

91 changes: 63 additions & 28 deletions README.md

Large diffs are not rendered by default.

95 changes: 65 additions & 30 deletions README.zh-CN.md

Large diffs are not rendered by default.

24 changes: 0 additions & 24 deletions locales/ar/models.json
Original file line number Diff line number Diff line change
Expand Up @@ -23,20 +23,6 @@
"4.0Ultra": {
"description": "Spark4.0 Ultra هو أقوى إصدار في سلسلة نماذج Spark، حيث يعزز فهم النصوص وقدرات التلخيص مع تحسين روابط البحث عبر الإنترنت. إنه حل شامل يهدف إلى تعزيز إنتاجية المكتب والاستجابة الدقيقة للاحتياجات، ويعتبر منتجًا ذكيًا رائدًا في الصناعة."
},
"@cf/meta/llama-3-8b-instruct-awq": {},
"@cf/openchat/openchat-3.5-0106": {},
"@cf/qwen/qwen1.5-14b-chat-awq": {},
"@hf/google/gemma-7b-it": {},
"@hf/meta-llama/meta-llama-3-8b-instruct": {
"description": "من جيل إلى جيل، يظهر Meta Llama 3 أداءً متقدمًا في مجموعة واسعة من معايير الصناعة ويقدم قدرات جديدة، بما في ذلك تحسين التفكير."
},
"@hf/mistral/mistral-7b-instruct-v0.2": {},
"@hf/nexusflow/starling-lm-7b-beta": {},
"@hf/nousresearch/hermes-2-pro-mistral-7b": {},
"@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {},
"@hf/thebloke/neural-chat-7b-v3-1-awq": {},
"@hf/thebloke/openhermes-2.5-mistral-7b-awq": {},
"@hf/thebloke/zephyr-7b-beta-awq": {},
"Baichuan2-Turbo": {
"description": "يستخدم تقنية تعزيز البحث لتحقيق الربط الشامل بين النموذج الكبير والمعرفة الميدانية والمعرفة من جميع أنحاء الشبكة. يدعم تحميل مستندات PDF وWord وغيرها من المدخلات، مما يضمن الحصول على المعلومات بشكل سريع وشامل، ويقدم نتائج دقيقة واحترافية."
},
Expand Down Expand Up @@ -127,7 +113,6 @@
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
"description": "Hermes 2 Mixtral 8x7B DPO هو دمج متعدد النماذج مرن للغاية، يهدف إلى تقديم تجربة إبداعية ممتازة."
},
"NousResearch/Hermes-3-Llama-3.1-8B": {},
"NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
"description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) هو نموذج تعليمات عالي الدقة، مناسب للحسابات المعقدة."
},
Expand Down Expand Up @@ -530,9 +515,6 @@
"cohere-command-r-plus": {
"description": "نموذج RAG محسّن من الطراز الأول مصمم للتعامل مع أحمال العمل على مستوى المؤسسات."
},
"command-light": {
"description": ""
},
"command-r": {
"description": "Command R هو نموذج LLM محسن لمهام الحوار والسياقات الطويلة، مناسب بشكل خاص للتفاعل الديناميكي وإدارة المعرفة."
},
Expand Down Expand Up @@ -794,9 +776,6 @@
"hunyuan-functioncall": {
"description": "نموذج Hunyuan الأحدث من نوع MOE FunctionCall، تم تدريبه على بيانات FunctionCall عالية الجودة، مع نافذة سياق تصل إلى 32K، ويحتل مرتبة متقدمة في مؤشرات التقييم عبر عدة أبعاد."
},
"hunyuan-large": {
"description": ""
},
"hunyuan-lite": {
"description": "تم الترقية إلى هيكل MOE، مع نافذة سياق تصل إلى 256k، متفوقًا على العديد من النماذج مفتوحة المصدر في تقييمات NLP، البرمجة، الرياضيات، والصناعات."
},
Expand Down Expand Up @@ -830,8 +809,6 @@
"internlm2.5-latest": {
"description": "سلسلة نماذجنا الأحدث، تتمتع بأداء استدلال ممتاز، تدعم طول سياق يصل إلى 1 مليون، بالإضافة إلى قدرة أقوى على اتباع التعليمات واستدعاء الأدوات."
},
"jamba-1.5-large": {},
"jamba-1.5-mini": {},
"learnlm-1.5-pro-experimental": {
"description": "LearnLM هو نموذج لغوي تجريبي محدد المهام، تم تدريبه ليتماشى مع مبادئ علوم التعلم، يمكنه اتباع التعليمات النظامية في سيناريوهات التعليم والتعلم، ويعمل كمدرب خبير."
},
Expand Down Expand Up @@ -1027,7 +1004,6 @@
"meta.llama3-8b-instruct-v1:0": {
"description": "Meta Llama 3 هو نموذج لغوي كبير مفتوح (LLM) موجه للمطورين والباحثين والشركات، يهدف إلى مساعدتهم في بناء وتجربة وتوسيع أفكارهم في الذكاء الاصطناعي بشكل مسؤول. كجزء من نظام الابتكار المجتمعي العالمي، فهو مثالي للأجهزة ذات القدرة الحاسوبية والموارد المحدودة، والأجهزة الطرفية، وأوقات التدريب الأسرع."
},
"microsoft/Phi-3.5-mini-instruct": {},
"microsoft/WizardLM-2-8x22B": {
"description": "WizardLM 2 هو نموذج لغوي تقدمه Microsoft AI، يتميز بأداء ممتاز في المحادثات المعقدة، واللغات المتعددة، والاستدلال، ومساعدات الذكاء."
},
Expand Down
14 changes: 10 additions & 4 deletions locales/ar/providers.json
Original file line number Diff line number Diff line change
@@ -1,5 +1,7 @@
{
"ai21": {},
"ai21": {
"description": "تقوم AI21 Labs ببناء نماذج أساسية وأنظمة ذكاء اصطناعي للشركات، مما يسرع من تطبيق الذكاء الاصطناعي التوليدي في الإنتاج."
},
"ai360": {
"description": "AI 360 هي منصة نماذج وخدمات الذكاء الاصطناعي التي أطلقتها شركة 360، تقدم مجموعة متنوعة من نماذج معالجة اللغة الطبيعية المتقدمة، بما في ذلك 360GPT2 Pro و360GPT Pro و360GPT Turbo و360GPT Turbo Responsibility 8K. تجمع هذه النماذج بين المعلمات الكبيرة والقدرات متعددة الوسائط، وتستخدم على نطاق واسع في توليد النصوص، وفهم المعاني، وأنظمة الحوار، وتوليد الشيفرات. من خلال استراتيجيات تسعير مرنة، تلبي AI 360 احتياجات المستخدمين المتنوعة، وتدعم المطورين في التكامل، مما يعزز الابتكار والتطوير في التطبيقات الذكية."
},
Expand All @@ -15,7 +17,9 @@
"bedrock": {
"description": "Bedrock هي خدمة تقدمها أمازون AWS، تركز على توفير نماذج لغة ورؤية متقدمة للذكاء الاصطناعي للشركات. تشمل عائلة نماذجها سلسلة Claude من Anthropic وسلسلة Llama 3.1 من Meta، وتغطي مجموعة من الخيارات من النماذج الخفيفة إلى عالية الأداء، وتدعم مهام مثل توليد النصوص، والحوار، ومعالجة الصور، مما يجعلها مناسبة لتطبيقات الشركات بمختلف أحجامها واحتياجاتها."
},
"cloudflare": {},
"cloudflare": {
"description": "تشغيل نماذج التعلم الآلي المدفوعة بوحدات معالجة الرسوميات بدون خادم على شبكة Cloudflare العالمية."
},
"deepseek": {
"description": "DeepSeek هي شركة تركز على أبحاث وتطبيقات تقنيات الذكاء الاصطناعي، حيث يجمع نموذجها الأحدث DeepSeek-V2.5 بين قدرات الحوار العامة ومعالجة الشيفرات، وقد حقق تحسينات ملحوظة في محاذاة تفضيلات البشر، ومهام الكتابة، واتباع التعليمات."
},
Expand All @@ -35,7 +39,7 @@
"description": "يتميز محرك الاستدلال LPU من Groq بأداء ممتاز في أحدث اختبارات المعايير لنماذج اللغة الكبيرة المستقلة (LLM)، حيث أعاد تعريف معايير حلول الذكاء الاصطناعي بسرعته وكفاءته المذهلة. Groq يمثل سرعة استدلال فورية، ويظهر أداءً جيدًا في النشر القائم على السحابة."
},
"higress": {
"description": ""
"description": "Higress هو بوابة API سحابية الأصل، تم تطويرها داخل علي بابا لحل مشاكل إعادة تحميل Tengine التي تؤثر سلبًا على الأعمال ذات الاتصالات الطويلة، بالإضافة إلى نقص قدرات توازن الحمل لـ gRPC/Dubbo."
},
"huggingface": {
"description": "تقدم واجهة برمجة التطبيقات الخاصة بـ HuggingFace طريقة سريعة ومجانية لاستكشاف الآلاف من النماذج لمجموعة متنوعة من المهام. سواء كنت تقوم بتصميم نموذج أولي لتطبيق جديد أو تحاول استكشاف إمكانيات التعلم الآلي، فإن هذه الواجهة تتيح لك الوصول الفوري إلى نماذج عالية الأداء في مجالات متعددة."
Expand Down Expand Up @@ -73,7 +77,9 @@
"qwen": {
"description": "Qwen هو نموذج لغة ضخم تم تطويره ذاتيًا بواسطة Alibaba Cloud، يتمتع بقدرات قوية في فهم وتوليد اللغة الطبيعية. يمكنه الإجابة على مجموعة متنوعة من الأسئلة، وكتابة المحتوى، والتعبير عن الآراء، وكتابة الشيفرات، ويؤدي دورًا في مجالات متعددة."
},
"sensenova": {},
"sensenova": {
"description": "تقدم شركة SenseTime خدمات نماذج كبيرة شاملة وسهلة الاستخدام، مدعومة بقوة من البنية التحتية الكبيرة لشركة SenseTime."
},
"siliconcloud": {
"description": "تسعى SiliconFlow إلى تسريع الذكاء الاصطناعي العام (AGI) لفائدة البشرية، من خلال تحسين كفاءة الذكاء الاصطناعي على نطاق واسع باستخدام حزمة GenAI سهلة الاستخدام وذات التكلفة المنخفضة."
},
Expand Down
24 changes: 0 additions & 24 deletions locales/bg-BG/models.json
Original file line number Diff line number Diff line change
Expand Up @@ -23,20 +23,6 @@
"4.0Ultra": {
"description": "Spark4.0 Ultra е най-мощната версия в серията Starfire, която подобрява разбирането и обобщаването на текстовото съдържание, докато надгражда свързаните търсения. Това е всестранно решение за повишаване на производителността в офиса и точно отговаряне на нуждите, водещо в индустрията интелигентно решение."
},
"@cf/meta/llama-3-8b-instruct-awq": {},
"@cf/openchat/openchat-3.5-0106": {},
"@cf/qwen/qwen1.5-14b-chat-awq": {},
"@hf/google/gemma-7b-it": {},
"@hf/meta-llama/meta-llama-3-8b-instruct": {
"description": "Поколение след поколение, Meta Llama 3 демонстрира най-съвременна производителност в широк спектър от индустриални оценки и предлага нови възможности, включително подобрено разсъждение."
},
"@hf/mistral/mistral-7b-instruct-v0.2": {},
"@hf/nexusflow/starling-lm-7b-beta": {},
"@hf/nousresearch/hermes-2-pro-mistral-7b": {},
"@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {},
"@hf/thebloke/neural-chat-7b-v3-1-awq": {},
"@hf/thebloke/openhermes-2.5-mistral-7b-awq": {},
"@hf/thebloke/zephyr-7b-beta-awq": {},
"Baichuan2-Turbo": {
"description": "Използва технологии за подобряване на търсенето, за да свърже голям модел с областни знания и знания от интернет. Поддържа качване на различни документи като PDF, Word и вход на уебсайтове, с бърз и цялостен достъп до информация, предоставяйки точни и професионални резултати."
},
Expand Down Expand Up @@ -127,7 +113,6 @@
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
"description": "Hermes 2 Mixtral 8x7B DPO е високо гъвкава многомоделна комбинация, предназначена да предостави изключителен креативен опит."
},
"NousResearch/Hermes-3-Llama-3.1-8B": {},
"NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
"description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) е модел с висока точност за инструкции, подходящ за сложни изчисления."
},
Expand Down Expand Up @@ -530,9 +515,6 @@
"cohere-command-r-plus": {
"description": "Command R+ е модел, оптимизиран за RAG, проектиран да се справя с натоварвания на ниво предприятие."
},
"command-light": {
"description": ""
},
"command-r": {
"description": "Command R е LLM, оптимизиран за диалогови и дълги контекстуални задачи, особено подходящ за динамично взаимодействие и управление на знания."
},
Expand Down Expand Up @@ -794,9 +776,6 @@
"hunyuan-functioncall": {
"description": "Най-новият модел на HunYuan с MOE архитектура за извикване на функции, обучен с висококачествени данни за извикване на функции, с контекстен прозорец от 32K, водещ в множество измерения на оценъчните показатели."
},
"hunyuan-large": {
"description": ""
},
"hunyuan-lite": {
"description": "Актуализиран до MOE структура, контекстният прозорец е 256k, водещ в множество оценъчни набори в NLP, код, математика и индустрия, пред много от отворените модели."
},
Expand Down Expand Up @@ -830,8 +809,6 @@
"internlm2.5-latest": {
"description": "Нашата най-нова серия модели с изключителни способности за извеждане, поддържаща контекстна дължина от 1M и по-силни способности за следване на инструкции и извикване на инструменти."
},
"jamba-1.5-large": {},
"jamba-1.5-mini": {},
"learnlm-1.5-pro-experimental": {
"description": "LearnLM е експериментален езиков модел, специфичен за задачи, обучен да отговаря на принципите на научното обучение, способен да следва системни инструкции в учебни и обучителни сценарии, да действа като експертен ментор и др."
},
Expand Down Expand Up @@ -1027,7 +1004,6 @@
"meta.llama3-8b-instruct-v1:0": {
"description": "Meta Llama 3 е отворен голям езиков модел (LLM), насочен към разработчици, изследователи и предприятия, предназначен да им помогне да изградят, експериментират и отговорно разширят своите идеи за генеративен ИИ. Като част от основната система на глобалната общност за иновации, той е особено подходящ за устройства с ограничени изчислителни ресурси и по-бързо време за обучение."
},
"microsoft/Phi-3.5-mini-instruct": {},
"microsoft/WizardLM-2-8x22B": {
"description": "WizardLM 2 е езиков модел, предоставен от Microsoft AI, който показва особени способности в сложни разговори, многоезичност, разсъждения и интелигентни асистенти."
},
Expand Down
Loading

0 comments on commit 470c186

Please sign in to comment.