diff --git a/README.ja-JP.md b/README.ja-JP.md index d69681fd4f9b..27137da0c758 100644 --- a/README.ja-JP.md +++ b/README.ja-JP.md @@ -4,11 +4,11 @@ # Lobe Chat -オープンソースのモダンデザインChatGPT/LLMs UI/フレームワーク。
+オープンソースのモダンデザイン ChatGPT/LLMs UI / フレームワーク。
音声合成、マルチモーダル、拡張可能な([function call][docs-functionc-call])プラグインシステムをサポート。
-プライベートなOpenAI ChatGPT/Claude/Gemini/Groq/Ollamaチャットアプリケーションをワンクリックで**無料**でデプロイ。 +プライベートな OpenAI ChatGPT/Claude/Gemini/Groq/Ollama チャットアプリケーションをワンクリックで**無料**でデプロイ。 -[English](./README.md) · [简体中文](./README.zh-CN.md) · **日本語** · [公式サイト][official-site] · [変更履歴](./CHANGELOG.md) · [ドキュメント][docs] · [ブログ][blog] · [フィードバック][github-issues-link] +[English](./README.md) · [简体中文](./README.zh-CN.md) · **日本語** · [公式サイト][official-site] · [変更履歴][changelog] · [ドキュメント][docs] · [ブログ][blog] · [フィードバック][github-issues-link] @@ -27,7 +27,7 @@ [![][github-license-shield]][github-license-link]
[![][sponsor-shield]][sponsor-link] -**LobeChatリポジトリを共有** +**LobeChat リポジトリを共有** [![][share-x-shield]][share-x-link] [![][share-telegram-shield]][share-telegram-link] @@ -67,13 +67,13 @@ - [`*` その他の特徴](#-その他の特徴) - [⚡️ パフォーマンス](#️-パフォーマンス) - [🛳 自己ホスティング](#-自己ホスティング) - - [`A` Vercel、Zeabur、Sealosでのデプロイ](#a-vercelzeabursealosでのデプロイ) - - [`B` Dockerでのデプロイ](#b-dockerでのデプロイ) + - [`A` Vercel、Zeabur、Sealos でのデプロイ](#a-vercelzeabursealos-でのデプロイ) + - [`B` Docker でのデプロイ](#b-docker-でのデプロイ) - [環境変数](#環境変数) - [📦 エコシステム](#-エコシステム) - [🧩 プラグイン](#-プラグイン) - [⌨️ ローカル開発](#️-ローカル開発) -- [🤝 貢献](#-貢献) +- [🤝 コントリビュート](#-コントリビュート) - [❤️ スポンサー](#️-スポンサー) - [🔗 その他の製品](#-その他の製品) @@ -85,18 +85,18 @@ ## 👋🏻 はじめに & コミュニティに参加 -私たちは、AIGCのためのモダンデザインコンポーネントとツールを提供することを目指すデザインエンジニアのグループです。 +私たちは、AIGC のためのモダンデザインコンポーネントとツールを提供することを目指すデザインエンジニアのグループです。 ブートストラッピングアプローチを採用することで、開発者とユーザーに対してよりオープンで透明性のある、使いやすい製品エコシステムを提供することを目指しています。 -ユーザーやプロの開発者にとって、LobeHubはあなたのAIエージェントの遊び場となるでしょう。LobeChatは現在アクティブに開発中であり、遭遇した[問題][issues-link]についてのフィードバックを歓迎します。 +ユーザーやプロの開発者にとって、LobeHub はあなたの AI エージェントの遊び場となるでしょう。LobeChat は現在アクティブに開発中であり、遭遇した[問題][issues-link]についてのフィードバックを歓迎します。 -| [![][vercel-shield-badge]][vercel-link] | インストールや登録は不要です!私たちのウェブサイトにアクセスして、直接体験してください。 | -| :---------------------------------------- | :----------------------------------------------------------------------------------------------------------------- | -| [![][discord-shield-badge]][discord-link] | 私たちのDiscordコミュニティに参加しましょう!ここでは、LobeHubの開発者や他の熱心なユーザーとつながることができます。 | +| [![][vercel-shield-badge]][vercel-link] | インストールや登録は不要です!私たちのウェブサイトにアクセスして、直接体験してください。 | +| :---------------------------------------- | :---------------------------------------------------------------------------------------------------------------------- | +| [![][discord-shield-badge]][discord-link] | 私たちの Discord コミュニティに参加しましょう!ここでは、LobeHub の開発者や他の熱心なユーザーとつながることができます。 | > \[!IMPORTANT] > -> **スターを付けてください**。GitHubからのすべてのリリース通知を遅延なく受け取ることができます\~ ⭐️ +> **スターを付けてください**。GitHub からのすべてのリリース通知を遅延なく受け取ることができます~⭐️ [![][image-star]][github-stars-link] @@ -114,29 +114,63 @@ ### `1` [マルチモデルサービスプロバイダーのサポート][docs-feat-provider] -LobeChatの継続的な開発において、AI会話サービスを提供する際のモデルサービスプロバイダーの多様性がコミュニティのニーズを満たすために重要であることを深く理解しています。そのため、単一のモデルサービスプロバイダーに限定せず、複数のモデルサービスプロバイダーをサポートすることで、ユーザーにより多様で豊富な会話の選択肢を提供しています。 +LobeChat の継続的な開発において、AI 会話サービスを提供する際のモデルサービスプロバイダーの多様性がコミュニティのニーズを満たすために重要であることを深く理解しています。そのため、単一のモデルサービスプロバイダーに限定せず、複数のモデルサービスプロバイダーをサポートすることで、ユーザーにより多様で豊富な会話の選択肢を提供しています。 -このようにして、LobeChatは異なるユーザーのニーズにより柔軟に対応し、開発者にも幅広い選択肢を提供します。 +このようにして、LobeChat は異なるユーザーのニーズにより柔軟に対応し、開発者にも幅広い選択肢を提供します。 #### サポートされているモデルサービスプロバイダー 以下のモデルサービスプロバイダーをサポートしています: -- **AWS Bedrock**:AWS Bedrockサービスと統合され、**Claude / LLama2**などのモデルをサポートし、強力な自然言語処理能力を提供します。[詳細はこちら](https://aws.amazon.com/cn/bedrock) -- **Anthropic (Claude)**:Anthropicの**Claude**シリーズモデルにアクセスし、Claude 3およびClaude 2を含む、マルチモーダル機能と拡張コンテキストで業界の新しいベンチマークを設定します。[詳細はこちら](https://www.anthropic.com/claude) -- **Google AI (Gemini Pro, Gemini Vision)**:Googleの**Gemini**シリーズモデルにアクセスし、GeminiおよびGemini Proを含む、高度な言語理解と生成をサポートします。[詳細はこちら](https://deepmind.google/technologies/gemini/) -- **Groq**:GroqのAIモデルにアクセスし、メッセージシーケンスを効率的に処理し、応答を生成し、マルチターンの対話や単一のインタラクションタスクを実行できます。[詳細はこちら](https://groq.com/) -- **OpenRouter**:**Claude 3**、**Gemma**、**Mistral**、**Llama2**、**Cohere**などのモデルのルーティングをサポートし、インテリジェントなルーティング最適化をサポートし、使用効率を向上させ、オープンで柔軟です。[詳細はこちら](https://openrouter.ai/) -- **01.AI (Yi Model)**:01.AIモデルを統合し、推論速度が速いAPIシリーズを提供し、処理時間を短縮しながら優れたモデル性能を維持します。[詳細はこちら](https://01.ai/) -- **Together.ai**:Together Inference APIを通じて、100以上の主要なオープンソースのチャット、言語、画像、コード、および埋め込みモデルにアクセスできます。これらのモデルについては、使用した分だけ支払います。[詳細はこちら](https://www.together.ai/) -- **ChatGLM**:智谱の**ChatGLM**シリーズモデル(GLM-4/GLM-4-vision/GLM-3-turbo)を追加し、ユーザーにもう一つの効率的な会話モデルの選択肢を提供します。[詳細はこちら](https://www.zhipuai.cn/) -- **Moonshot AI (Dark Side of the Moon)**:中国の革新的なAIスタートアップであるMoonshotシリーズモデルと統合し、より深い会話理解を提供します。[詳細はこちら](https://www.moonshot.cn/) -- **Minimax**:Minimaxモデルを統合し、MoEモデル**abab6**を含む、より広範な選択肢を提供します。[詳細はこちら](https://www.minimaxi.com/) -- **DeepSeek**:中国の革新的なAIスタートアップであるDeepSeekシリーズモデルと統合し、性能と価格のバランスを取ったモデルを提供します。[詳細はこちら](https://www.deepseek.com/) -- **Qwen**:Qwenシリーズモデルを統合し、最新の**qwen-turbo**、**qwen-plus**、**qwen-max**を含む。[詳細はこちら](https://help.aliyun.com/zh/dashscope/developer-reference/model-introduction) -- **Novita AI**:**Llama**、**Mistral**、その他の主要なオープンソースモデルに最安値でアクセスできます。検閲されないロールプレイに参加し、創造的な議論を引き起こし、制限のないイノベーションを促進します。**使用した分だけ支払います。** [詳細はこちら](https://novita.ai/llm-api?utm_source=lobechat&utm_medium=ch&utm_campaign=api) - -同時に、ReplicateやPerplexityなどのモデルサービスプロバイダーのサポートも計画しています。これにより、サービスプロバイダーのライブラリをさらに充実させることができます。LobeChatがあなたのお気に入りのサービスプロバイダーをサポートすることを希望する場合は、[コミュニティディスカッション](https://github.com/lobehub/lobe-chat/discussions/1284)に参加してください。 + + +- **[OpenAI](https://lobechat.com/discover/provider/openai)**: OpenAI は、世界をリードする人工知能研究機関であり、GPT シリーズなどのモデルを開発し、自然言語処理の最前線を推進しています。OpenAI は、革新と効率的な AI ソリューションを通じて、さまざまな業界を変革することに取り組んでいます。彼らの製品は、顕著な性能と経済性を持ち、研究、ビジネス、革新アプリケーションで広く使用されています。 +- **[Ollama](https://lobechat.com/discover/provider/ollama)**: Ollama が提供するモデルは、コード生成、数学演算、多言語処理、対話インタラクションなどの分野を広くカバーし、企業向けおよびローカライズされた展開の多様なニーズに対応しています。 +- **[Anthropic](https://lobechat.com/discover/provider/anthropic)**: Anthropic は、人工知能の研究と開発に特化した企業であり、Claude 3.5 Sonnet、Claude 3 Sonnet、Claude 3 Opus、Claude 3 Haiku などの先進的な言語モデルを提供しています。これらのモデルは、知性、速度、コストの理想的なバランスを実現しており、企業向けのワークロードから迅速な応答が求められるさまざまなアプリケーションシーンに適しています。Claude 3.5 Sonnet は最新のモデルであり、複数の評価で優れたパフォーマンスを示し、高いコストパフォーマンスを維持しています。 +- **[Bedrock](https://lobechat.com/discover/provider/bedrock)**: Bedrock は、Amazon AWS が提供するサービスで、企業に先進的な AI 言語モデルと視覚モデルを提供することに特化しています。そのモデルファミリーには、Anthropic の Claude シリーズや Meta の Llama 3.1 シリーズなどが含まれ、軽量から高性能までのさまざまな選択肢を提供し、テキスト生成、対話、画像処理などの多様なタスクをサポートし、異なる規模とニーズの企業アプリケーションに適しています。 +- **[Google](https://lobechat.com/discover/provider/google)**: Google の Gemini シリーズは、Google DeepMind によって開発された最先端で汎用的な AI モデルであり、多モーダル設計に特化しており、テキスト、コード、画像、音声、動画のシームレスな理解と処理をサポートします。データセンターからモバイルデバイスまでのさまざまな環境に適しており、AI モデルの効率と適用範囲を大幅に向上させています。 +- **[DeepSeek](https://lobechat.com/discover/provider/deepseek)**: DeepSeek は、人工知能技術の研究と応用に特化した企業であり、最新のモデル DeepSeek-V2.5 は、汎用対話とコード処理能力を融合させ、人間の好みの整合、ライティングタスク、指示の遵守などの面で顕著な向上を実現しています。 +- **[HuggingFace](https://lobechat.com/discover/provider/huggingface)**: HuggingFace Inference API は、数千のモデルをさまざまなタスクに対して探索するための迅速かつ無料の方法を提供します。新しいアプリケーションのプロトタイプを作成している場合でも、機械学習の機能を試している場合でも、この API は複数の分野の高性能モデルに即座にアクセスできるようにします。 +- **[OpenRouter](https://lobechat.com/discover/provider/openrouter)**: OpenRouter は、OpenAI、Anthropic、LLaMA などのさまざまな最先端の大規模モデルインターフェースを提供するサービスプラットフォームであり、多様な開発と応用のニーズに適しています。ユーザーは、自身のニーズに応じて最適なモデルと価格を柔軟に選択し、AI 体験の向上を支援します。 +- **[Cloudflare Workers AI](https://lobechat.com/discover/provider/cloudflare)**: Cloudflare のグローバルネットワーク上で、サーバーレス GPU によって駆動される機械学習モデルを実行します。 +- **[GitHub](https://lobechat.com/discover/provider/github)**: GitHub モデルを使用することで、開発者は AI エンジニアになり、業界をリードする AI モデルを使って構築できます。 + +
See more providers (+26) + +- **[Novita](https://lobechat.com/discover/provider/novita)**: Novita AI は、さまざまな大規模言語モデルと AI 画像生成の API サービスを提供するプラットフォームであり、柔軟で信頼性が高く、コスト効率に優れています。Llama3、Mistral などの最新のオープンソースモデルをサポートし、生成的 AI アプリケーションの開発に向けた包括的でユーザーフレンドリーかつ自動スケーリングの API ソリューションを提供し、AI スタートアップの急成長を支援します。 +- **[Together AI](https://lobechat.com/discover/provider/togetherai)**: Together AI は、革新的な AI モデルを通じて先進的な性能を実現することに取り組んでおり、迅速なスケーリングサポートや直感的な展開プロセスを含む広範なカスタマイズ能力を提供し、企業のさまざまなニーズに応えています。 +- **[Fireworks AI](https://lobechat.com/discover/provider/fireworksai)**: Fireworks AI は、先進的な言語モデルサービスのリーダーであり、機能呼び出しと多モーダル処理に特化しています。最新のモデル Firefunction V2 は Llama-3 に基づいており、関数呼び出し、対話、指示の遵守に最適化されています。視覚言語モデル FireLLaVA-13B は、画像とテキストの混合入力をサポートしています。他の注目すべきモデルには、Llama シリーズや Mixtral シリーズがあり、高効率の多言語指示遵守と生成サポートを提供しています。 +- **[Groq](https://lobechat.com/discover/provider/groq)**: Groq の LPU 推論エンジンは、最新の独立した大規模言語モデル(LLM)ベンチマークテストで卓越したパフォーマンスを示し、その驚異的な速度と効率で AI ソリューションの基準を再定義しています。Groq は、即時推論速度の代表であり、クラウドベースの展開で良好なパフォーマンスを発揮しています。 +- **[Perplexity](https://lobechat.com/discover/provider/perplexity)**: Perplexity は、先進的な対話生成モデルの提供者であり、さまざまな Llama 3.1 モデルを提供し、オンラインおよびオフラインアプリケーションをサポートし、特に複雑な自然言語処理タスクに適しています。 +- **[Mistral](https://lobechat.com/discover/provider/mistral)**: Mistral は、先進的な汎用、専門、研究型モデルを提供し、複雑な推論、多言語タスク、コード生成などの分野で広く使用されています。機能呼び出しインターフェースを通じて、ユーザーはカスタム機能を統合し、特定のアプリケーションを実現できます。 +- **[Ai21Labs](https://lobechat.com/discover/provider/ai21)**: AI21 Labs は企業向けに基盤モデルと人工知能システムを構築し、生成的人工知能の生産への応用を加速します。 +- **[Upstage](https://lobechat.com/discover/provider/upstage)**: Upstage は、さまざまなビジネスニーズに応じた AI モデルの開発に特化しており、Solar LLM や文書 AI を含み、人造一般知能(AGI)の実現を目指しています。Chat API を通じてシンプルな対話エージェントを作成し、機能呼び出し、翻訳、埋め込み、特定分野のアプリケーションをサポートします。 +- **[xAI](https://lobechat.com/discover/provider/xai)**: xAI は、人類の科学的発見を加速するための人工知能を構築することに専念している企業です。私たちの使命は、宇宙に対する共通の理解を促進することです。 +- **[Qwen](https://lobechat.com/discover/provider/qwen)**: 通義千問は、アリババクラウドが独自に開発した超大規模言語モデルであり、強力な自然言語理解と生成能力を持っています。さまざまな質問に答えたり、文章を創作したり、意見を表現したり、コードを執筆したりすることができ、さまざまな分野で活躍しています。 +- **[Wenxin](https://lobechat.com/discover/provider/wenxin)**: 企業向けのワンストップ大規模モデルと AI ネイティブアプリケーションの開発およびサービスプラットフォームで、最も包括的で使いやすい生成的人工知能モデルの開発とアプリケーション開発の全プロセスツールチェーンを提供します。 +- **[Hunyuan](https://lobechat.com/discover/provider/hunyuan)**: テンセントが開発した大規模言語モデルであり、強力な中国語の創作能力、複雑な文脈における論理的推論能力、そして信頼性の高いタスク実行能力を備えています。 +- **[Spark](https://lobechat.com/discover/provider/spark)**: 科大訊飛星火大モデルは、多分野、多言語の強力な AI 能力を提供し、先進的な自然言語処理技術を利用して、スマートハードウェア、スマート医療、スマート金融などのさまざまな垂直シーンに適した革新的なアプリケーションを構築します。 +- **[ZhiPu](https://lobechat.com/discover/provider/zhipu)**: 智谱 AI は、多モーダルおよび言語モデルのオープンプラットフォームを提供し、テキスト処理、画像理解、プログラミング支援など、幅広い AI アプリケーションシーンをサポートしています。 +- **[01.AI](https://lobechat.com/discover/provider/zeroone)**: 01.AI は、AI 2.0 時代の人工知能技術に特化し、「人 + 人工知能」の革新と応用を推進し、超強力なモデルと先進的な AI 技術を用いて人類の生産性を向上させ、技術の力を実現します。 +- **[SenseNova](https://lobechat.com/discover/provider/sensenova)**: 商湯日日新は、商湯の強力な基盤支援に基づき、高効率で使いやすい全スタックの大規模モデルサービスを提供します。 +- **[Stepfun](https://lobechat.com/discover/provider/stepfun)**: 階級星辰大モデルは、業界をリードする多モーダルおよび複雑な推論能力を備え、超長文の理解と強力な自律的検索エンジン機能をサポートしています。 +- **[Moonshot](https://lobechat.com/discover/provider/moonshot)**: Moonshot は、北京月之暗面科技有限公司が提供するオープンプラットフォームであり、さまざまな自然言語処理モデルを提供し、コンテンツ創作、学術研究、スマート推薦、医療診断などの広範な応用分野を持ち、長文処理や複雑な生成タスクをサポートしています。 +- **[Baichuan](https://lobechat.com/discover/provider/baichuan)**: 百川智能は、人工知能大モデルの研究開発に特化した企業であり、そのモデルは国内の知識百科、長文処理、生成創作などの中国語タスクで卓越したパフォーマンスを示し、海外の主流モデルを超えています。百川智能は、業界をリードする多モーダル能力を持ち、複数の権威ある評価で優れたパフォーマンスを示しています。そのモデルには、Baichuan 4、Baichuan 3 Turbo、Baichuan 3 Turbo 128k などが含まれ、異なるアプリケーションシーンに最適化され、高コストパフォーマンスのソリューションを提供しています。 +- **[Minimax](https://lobechat.com/discover/provider/minimax)**: MiniMax は 2021 年に設立された汎用人工知能テクノロジー企業であり、ユーザーと共に知能を共創することに取り組んでいます。MiniMax は、さまざまなモードの汎用大モデルを独自に開発しており、トリリオンパラメータの MoE テキスト大モデル、音声大モデル、画像大モデルを含んでいます。また、海螺 AI などのアプリケーションも展開しています。 +- **[360 AI](https://lobechat.com/discover/provider/ai360)**: 360 AI は、360 社が提供する AI モデルとサービスプラットフォームであり、360GPT2 Pro、360GPT Pro、360GPT Turbo、360GPT Turbo Responsibility 8K など、さまざまな先進的な自然言語処理モデルを提供しています。これらのモデルは、大規模なパラメータと多モーダル能力を組み合わせており、テキスト生成、意味理解、対話システム、コード生成などの分野で広く使用されています。柔軟な価格戦略を通じて、360 AI は多様なユーザーのニーズに応え、開発者の統合をサポートし、スマートアプリケーションの革新と発展を促進します。 +- **[Taichu](https://lobechat.com/discover/provider/taichu)**: 中科院自動化研究所と武漢人工知能研究院が新世代の多モーダル大モデルを発表し、多輪問答、テキスト創作、画像生成、3D 理解、信号分析などの包括的な問答タスクをサポートし、より強力な認知、理解、創作能力を持ち、新しいインタラクティブな体験を提供します。 +- **[InternLM](https://lobechat.com/discover/provider/internlm)**: 大規模モデルの研究と開発ツールチェーンに特化したオープンソース組織です。すべての AI 開発者に対して、高効率で使いやすいオープンプラットフォームを提供し、最先端の大規模モデルとアルゴリズム技術を身近に感じられるようにします。 +- **[SiliconCloud](https://lobechat.com/discover/provider/siliconcloud)**: SiliconFlow は、AGI を加速させ、人類に利益をもたらすことを目指し、使いやすくコスト効率の高い GenAI スタックを通じて大規模 AI の効率を向上させることに取り組んでいます。 +- **[Higress](https://lobechat.com/discover/provider/higress)**: Higress は、阿里内部で Tengine のリロードが長期接続のビジネスに悪影響を及ぼすことや、gRPC/Dubbo の負荷分散能力が不足している問題を解決するために生まれた、クラウドネイティブな API ゲートウェイです。 +- **[Gitee AI](https://lobechat.com/discover/provider/giteeai)**: Gitee AI の Serverless API は、AI 開発者に開梱即使用の大モデル推論 API サービスを提供する。 + +
+ +> 📊 Total providers: [**36**](https://lobechat.com/discover/providers) + + + +同時に、私たちはさらに多くのモデルサービスプロバイダーをサポートする計画を立てており、サービスプロバイダーのライブラリをさらに充実させる予定です。 LobeChat があなたのお気に入りのサービスプロバイダーをサポートすることを希望する場合は、[💬 コミュニティディスカッション](https://github.com/lobehub/lobe-chat/discussions/1284)に参加してください。
@@ -148,11 +182,11 @@ LobeChatの継続的な開発において、AI会話サービスを提供する ### `2` [ローカル大規模言語モデル (LLM) のサポート][docs-feat-local] -特定のユーザーのニーズに応えるために、LobeChatは[Ollama](https://ollama.ai)に基づいてローカルモデルの使用をサポートしており、ユーザーが自分自身またはサードパーティのモデルを柔軟に使用できるようにしています。 +特定のユーザーのニーズに応えるために、LobeChat は[Ollama](https://ollama.ai)に基づいてローカルモデルの使用をサポートしており、ユーザーが自分自身またはサードパーティのモデルを柔軟に使用できるようにしています。 > \[!TIP] > -> [📘 LobeChatでのOllamaの使用][docs-usage-ollama]について詳しくはこちらをご覧ください。 +> [📘 LobeChat での Ollama の使用][docs-usage-ollama]について詳しくはこちらをご覧ください。
@@ -164,7 +198,7 @@ LobeChatの継続的な開発において、AI会話サービスを提供する ### `3` [モデルの視覚認識][docs-feat-vision] -LobeChatは、OpenAIの最新の視覚認識機能を備えた[`gpt-4-vision`](https://platform.openai.com/docs/guides/vision)モデルをサポートしています。 +LobeChat は、OpenAI の最新の視覚認識機能を備えた[`gpt-4-vision`](https://platform.openai.com/docs/guides/vision)モデルをサポートしています。 これは視覚を認識できるマルチモーダルインテリジェンスです。ユーザーは簡単に画像をアップロードしたり、画像をドラッグアンドドロップして対話ボックスに入れることができ、 エージェントは画像の内容を認識し、これに基づいてインテリジェントな会話を行い、よりスマートで多様なチャットシナリオを作成します。 @@ -181,12 +215,12 @@ LobeChatは、OpenAIの最新の視覚認識機能を備えた[`gpt-4-vision`](h ### `4` [TTS & STT 音声会話][docs-feat-tts] -LobeChatは、テキストから音声への変換(Text-to-Speech、TTS)および音声からテキストへの変換(Speech-to-Text、STT)技術をサポートしており、 +LobeChat は、テキストから音声への変換(Text-to-Speech、TTS)および音声からテキストへの変換(Speech-to-Text、STT)技術をサポートしており、 テキストメッセージを明瞭な音声出力に変換し、ユーザーが実際の人と話しているかのように対話エージェントと対話できるようにします。 ユーザーは、エージェントに適した音声を選択することができます。 -さらに、TTSは聴覚学習を好む人や忙しい中で情報を受け取りたい人にとって優れたソリューションを提供します。 -LobeChatでは、異なる地域や文化的背景のユーザーのニーズに応えるために、さまざまな高品質の音声オプション(OpenAI Audio、Microsoft Edge Speech)を慎重に選択しました。 +さらに、TTS は聴覚学習を好む人や忙しい中で情報を受け取りたい人にとって優れたソリューションを提供します。 +LobeChat では、異なる地域や文化的背景のユーザーのニーズに応えるために、さまざまな高品質の音声オプション(OpenAI Audio、Microsoft Edge Speech)を慎重に選択しました。 ユーザーは、個人の好みや特定のシナリオに応じて適切な音声を選択し、パーソナライズされたコミュニケーション体験を得ることができます。
@@ -199,8 +233,8 @@ LobeChatでは、異なる地域や文化的背景のユーザーのニーズに ### `5` [テキストから画像生成][docs-feat-t2i] -最新のテキストから画像生成技術をサポートし、LobeChatはユーザーがエージェントとの対話中に直接画像作成ツールを呼び出すことができるようになりました。 -[`DALL-E 3`](https://openai.com/dall-e-3)、[`MidJourney`](https://www.midjourney.com/)、[`Pollinations`](https://pollinations.ai/)などのAIツールの能力を活用することで、 +最新のテキストから画像生成技術をサポートし、LobeChat はユーザーがエージェントとの対話中に直接画像作成ツールを呼び出すことができるようになりました。 +[`DALL-E 3`](https://openai.com/dall-e-3)、[`MidJourney`](https://www.midjourney.com/)、[`Pollinations`](https://pollinations.ai/)などの AI ツールの能力を活用することで、 エージェントはあなたのアイデアを画像に変えることができます。 これにより、プライベートで没入感のある創造プロセスが可能になり、個人的な対話に視覚的なストーリーテリングをシームレスに統合することができます。 @@ -215,13 +249,13 @@ LobeChatでは、異なる地域や文化的背景のユーザーのニーズに ### `6` [プラグインシステム (Function Calling)][docs-feat-plugin] -LobeChatのプラグインエコシステムは、そのコア機能の重要な拡張であり、LobeChatアシスタントの実用性と柔軟性を大幅に向上させます。 +LobeChat のプラグインエコシステムは、そのコア機能の重要な拡張であり、LobeChat アシスタントの実用性と柔軟性を大幅に向上させます。 -プラグインを利用することで、LobeChatアシスタントはリアルタイムの情報を取得して処理することができ、ウェブ情報を検索し、ユーザーに即時かつ関連性の高いニュースを提供することができます。 +プラグインを利用することで、LobeChat アシスタントはリアルタイムの情報を取得して処理することができ、ウェブ情報を検索し、ユーザーに即時かつ関連性の高いニュースを提供することができます。 -さらに、これらのプラグインはニュースの集約に限定されず、他の実用的な機能にも拡張できます。たとえば、ドキュメントの迅速な検索、画像の生成、Bilibili、Steamなどのさまざまなプラットフォームからのデータの取得、さまざまなサードパーティサービスとの連携などです。 +さらに、これらのプラグインはニュースの集約に限定されず、他の実用的な機能にも拡張できます。たとえば、ドキュメントの迅速な検索、画像の生成、Bilibili、Steam などのさまざまなプラットフォームからのデータの取得、さまざまなサードパーティサービスとの連携などです。 > \[!TIP] > @@ -229,14 +263,14 @@ LobeChatのプラグインエコシステムは、そのコア機能の重要な -| 最近の提出 | 説明 | -| ------------------------------------------------------------------------------------------------------------------- | ---------------------------------------------------------------------------------------------------------------------------------- | -| [ショッピングツール](https://chat-preview.lobehub.com/settings/agent)
By **shoppingtools** on **2024-07-19** | eBayとAliExpressで製品を検索し、eBayのイベントとクーポンを見つけます。プロンプトの例を取得します。
`ショッピング` `e-bay` `ali-express` `クーポン` | -| [Savvy Trader AI](https://chat-preview.lobehub.com/settings/agent)
By **savvytrader** on **2024-06-27** | リアルタイムの株式、暗号通貨、その他の投資データ。
`株式` `分析` | -| [ソーシャル検索](https://chat-preview.lobehub.com/settings/agent)
By **say-apps** on **2024-06-02** | ソーシャル検索は、ツイート、ユーザー、フォロワー、画像、メディアなどへのアクセスを提供します。
`ソーシャル` `ツイッター` `x` `検索` | -| [スペース](https://chat-preview.lobehub.com/settings/agent)
By **automateyournetwork** on **2024-05-12** | NASAを含む宇宙データ。
`宇宙` `nasa` | +| 最近追加 | 説明 | +| ------------------------------------------------------------------------------------------------------------------------------------ | ---------------------------------------------------------------------------------------------------------------------------------------------------- | +| [Google CSE](https://lobechat.com/discover/plugin/google-cse)
By **vsnthdev** on **2024-12-02** | 公式の CSE API を通じて Google を検索します。
`ウェブ` `検索` | +| [話す](https://lobechat.com/discover/plugin/speak)
By **speak** on **2024-12-02** | Speak は、AI パワードの言語チューターで、他の言語で何でも言う方法を学ぶことができます。
`教育` `言語` | +| [Tongyi Wanxiang 画像生成器](https://lobechat.com/discover/plugin/alps-tongyi-image)
By **YoungTx** on **2024-08-09** | このプラグインは、Alibaba の Tongyi Wanxiang モデルを使用して、テキストプロンプトに基づいて画像を生成します。
`画像` `トンギ` `ワンシャン` | +| [ショッピングツール](https://lobechat.com/discover/plugin/ShoppingTools)
By **shoppingtools** on **2024-07-19** | eBay や AliExpress で商品を検索し、eBay のイベントやクーポンを見つけます。迅速な例を取得します。
`ショッピング` `e-bay` `ali-express` `クーポン` | -> 📊 合計プラグイン数: [**52**](https://github.com/lobehub/lobe-chat-plugins) +> 📊 Total plugins: [**49**](https://lobechat.com/discover/plugins) @@ -250,14 +284,14 @@ LobeChatのプラグインエコシステムは、そのコア機能の重要な ### `7` [エージェントマーケット (GPTs)][docs-feat-agent] -LobeChatエージェントマーケットプレイスでは、クリエイターが多くの優れたエージェントを発見できる活気に満ちた革新的なコミュニティを提供しています。 +LobeChat エージェントマーケットプレイスでは、クリエイターが多くの優れたエージェントを発見できる活気に満ちた革新的なコミュニティを提供しています。 これらのエージェントは、仕事のシナリオで重要な役割を果たすだけでなく、学習プロセスでも大いに便利です。 私たちのマーケットプレイスは、単なるショーケースプラットフォームではなく、協力の場でもあります。ここでは、誰もが自分の知恵を貢献し、開発したエージェントを共有できます。 > \[!TIP] > > [🤖/🏪 エージェントを提出][submit-agents-link]することで、簡単にエージェント作品をプラットフォームに提出できます。 -> 重要なのは、LobeChatが高度な自動化国際化(i18n)ワークフローを確立しており、 +> 重要なのは、LobeChat が高度な自動化国際化(i18n)ワークフローを確立しており、 > あなたのエージェントを複数の言語バージョンにシームレスに翻訳できることです。 > これにより、ユーザーがどの言語を話していても、エージェントを障害なく体験できます。 @@ -268,14 +302,14 @@ LobeChatエージェントマーケットプレイスでは、クリエイター -| 最近の提出 | 説明 | -| -------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | -| [Cプログラム学習アシスタント](https://chat-preview.lobehub.com/market?agent=sichuan-university-941-c-programming-assistant)
By **[YBGuoYang](https://github.com/YBGuoYang)** on **2024-07-28** | Cプログラム設計の学習を支援します
`941` | -| [ブランドパイオニア](https://chat-preview.lobehub.com/market?agent=brand-pioneer)
By **[SaintFresh](https://github.com/SaintFresh)** on **2024-07-25** | ブランド開発の専門家、思想リーダー、ブランド戦略のスーパー天才、ブランドビジョナリー。ブランドパイオニアは、革新の最前線の探検家であり、自分の分野の発明者です。市場を提供し、専門分野の画期的な進展を特徴とする未来の世界を想像させてください。
`ビジネス` `ブランドパイオニア` `ブランド開発` `ビジネスアシスタント` `ブランドナラティブ` | -| [ネットワークセキュリティアシスタント](https://chat-preview.lobehub.com/market?agent=cybersecurity-copilot)
By **[huoji120](https://github.com/huoji120)** on **2024-07-23** | ログ、コード、逆コンパイルを分析し、問題を特定し、最適化の提案を提供するネットワークセキュリティの専門家アシスタント。
`ネットワークセキュリティ` `トラフィック分析` `ログ分析` `コード逆コンパイル` `ctf` | -| [BIDOSx2](https://chat-preview.lobehub.com/market?agent=bidosx-2-v-2)
By **[SaintFresh](https://github.com/SaintFresh)** on **2024-07-21** | 従来のAIを超越する高度なAI LLM。'BIDOS'は、'ブランドのアイデア、開発、運営、スケーリング'と'ビジネスインテリジェンス決定最適化システム'の両方を意味します。
`ブランド開発` `aiアシスタント` `市場分析` `戦略計画` `ビジネス最適化` `ビジネスインテリジェンス` | +| 最近追加 | 説明 | +| ------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | ----------------------------------------------------------------------------------------------------------------------------------- | +| [システム指示の専門家](https://lobechat.com/discover/assistant/instructer)
By **[yuyun2000](https://github.com/yuyun2000)** on **2024-12-04** | 効率的なシステム指示を精練し生成することに長けています
`システム指示` `執筆` `詳細最適化` `ユーザーのニーズ` | +| [日本語記憶支援者](https://lobechat.com/discover/assistant/japan-language-helper)
By **[sharkbear212](https://github.com/sharkbear212)** on **2024-12-04** | 日本語の五十音、ひらがな、カタカナ、単語やフレーズの説明と記憶のテクニックに特化しています
`説明` `記憶テクニック` `日本語教育` | +| [詩詞カードデザイナー](https://lobechat.com/discover/assistant/poetry-card-designer)
By **[lianxin255](https://github.com/lianxin255)** on **2024-12-03** | 詩詞カードのデザインに優れ、芸術感と魅力を高めます
`詩詞カードデザイン` `カード` `クリエイティブ` `アート表現` | +| [日常医師](https://lobechat.com/discover/assistant/yunchat-docter)
By **[yuyun2000](https://github.com/yuyun2000)** on **2024-11-30** | 外科診療と個別化健康管理に優れています
`総合診療` `外科` `健康相談` `個別化治療` `医学教育` | -> 📊 合計エージェント数: [**307** ](https://github.com/lobehub/lobe-chat-agents) +> 📊 Total agents: [**453** ](https://lobechat.com/discover/assistants) @@ -289,12 +323,12 @@ LobeChatエージェントマーケットプレイスでは、クリエイター ### `8` [ローカル / リモートデータベースのサポート][docs-feat-database] -LobeChatは、サーバーサイドデータベースとローカルデータベースの両方の使用をサポートしています。ニーズに応じて、適切なデプロイメントソリューションを選択できます: +LobeChat は、サーバーサイドデータベースとローカルデータベースの両方の使用をサポートしています。ニーズに応じて、適切なデプロイメントソリューションを選択できます: -- **ローカルデータベース**:データとプライバシー保護に対するより多くの制御を希望するユーザーに適しています。LobeChatはCRDT(Conflict-Free Replicated Data Type)技術を使用してマルチデバイス同期を実現しています。これはシームレスなデータ同期体験を提供することを目的とした実験的な機能です。 -- **サーバーサイドデータベース**:より便利なユーザー体験を希望するユーザーに適しています。LobeChatはPostgreSQLをサーバーサイドデータベースとしてサポートしています。サーバーサイドデータベースの設定方法についての詳細なドキュメントは、[サーバーサイドデータベースの設定](https://lobehub.com/docs/self-hosting/advanced/server-database)をご覧ください。 +- **ローカルデータベース**:データとプライバシー保護に対するより多くの制御を希望するユーザーに適しています。LobeChat は CRDT(Conflict-Free Replicated Data Type)技術を使用してマルチデバイス同期を実現しています。これはシームレスなデータ同期体験を提供することを目的とした実験的な機能です。 +- **サーバーサイドデータベース**:より便利なユーザー体験を希望するユーザーに適しています。LobeChat は PostgreSQL をサーバーサイドデータベースとしてサポートしています。サーバーサイドデータベースの設定方法についての詳細なドキュメントは、[サーバーサイドデータベースの設定](https://lobehub.com/docs/self-hosting/advanced/server-database)をご覧ください。 -どのデータベースを選択しても、LobeChatは優れたユーザー体験を提供します。 +どのデータベースを選択しても、LobeChat は優れたユーザー体験を提供します。
@@ -306,13 +340,13 @@ LobeChatは、サーバーサイドデータベースとローカルデータベ ### `9` [マルチユーザ管理のサポート][docs-feat-auth] -LobeChatはマルチユーザ管理をサポートし、異なるニーズに応じて2つの主要なユーザ認証および管理ソリューションを提供します: +LobeChat はマルチユーザ管理をサポートし、異なるニーズに応じて 2 つの主要なユーザ認証および管理ソリューションを提供します: -- **next-auth**:LobeChatは、複数の認証方法(OAuth、メールログイン、資格情報ログインなど)をサポートする柔軟で強力な認証ライブラリである`next-auth`を統合しています。`next-auth`を使用すると、ユーザの登録、ログイン、セッション管理、ソーシャルログインなどの機能を簡単に実装し、ユーザデータのセキュリティとプライバシーを確保できます。 +- **next-auth**:LobeChat は、複数の認証方法(OAuth、メールログイン、資格情報ログインなど)をサポートする柔軟で強力な認証ライブラリである`next-auth`を統合しています。`next-auth`を使用すると、ユーザの登録、ログイン、セッション管理、ソーシャルログインなどの機能を簡単に実装し、ユーザデータのセキュリティとプライバシーを確保できます。 -- **Clerk**:より高度なユーザ管理機能が必要なユーザ向けに、LobeChatは`Clerk`もサポートしています。`Clerk`は、現代的なユーザ管理プラットフォームであり、多要素認証(MFA)、ユーザプロファイル管理、ログイン活動の監視など、より豊富な機能を提供します。`Clerk`を使用すると、より高いセキュリティと柔軟性を得ることができ、複雑なユーザ管理ニーズに簡単に対応できます。 +- **Clerk**:より高度なユーザ管理機能が必要なユーザ向けに、LobeChat は`Clerk`もサポートしています。`Clerk`は、現代的なユーザ管理プラットフォームであり、多要素認証(MFA)、ユーザプロファイル管理、ログイン活動の監視など、より豊富な機能を提供します。`Clerk`を使用すると、より高いセキュリティと柔軟性を得ることができ、複雑なユーザ管理ニーズに簡単に対応できます。 -どのユーザ管理ソリューションを選択しても、LobeChatは優れたユーザー体験と強力な機能サポートを提供します。 +どのユーザ管理ソリューションを選択しても、LobeChat は優れたユーザー体験と強力な機能サポートを提供します。
@@ -328,18 +362,18 @@ LobeChatはマルチユーザ管理をサポートし、異なるニーズに応 そのため、プログレッシブウェブアプリケーション([PWA](https://support.google.com/chrome/answer/9658361))技術を採用しました。 これは、ウェブアプリケーションをネイティブアプリに近い体験に引き上げるモダンなウェブ技術です。 -PWAを通じて、LobeChatはデスクトップとモバイルデバイスの両方で高度に最適化されたユーザー体験を提供しながら、その軽量で高性能な特性を維持します。 +PWA を通じて、LobeChat はデスクトップとモバイルデバイスの両方で高度に最適化されたユーザー体験を提供しながら、その軽量で高性能な特性を維持します。 視覚的および感覚的には、インターフェースを慎重に設計し、ネイティブアプリと区別がつかないようにし、 スムーズなアニメーション、レスポンシブレイアウト、および異なるデバイスの画面解像度に適応するようにしています。 > \[!NOTE] > -> PWAのインストールプロセスに慣れていない場合は、以下の手順に従ってLobeChatをデスクトップアプリケーション(モバイルデバイスにも適用)として追加できます: +> PWA のインストールプロセスに慣れていない場合は、以下の手順に従って LobeChat をデスクトップアプリケーション(モバイルデバイスにも適用)として追加できます: > -> - コンピュータでChromeまたはEdgeブラウザを起動します。 -> - LobeChatのウェブページにアクセスします。 +> - コンピュータで Chrome または Edge ブラウザを起動します。 +> - LobeChat のウェブページにアクセスします。 > - アドレスバーの右上にあるインストールアイコンをクリックします。 -> - 画面の指示に従ってPWAのインストールを完了します。 +> - 画面の指示に従って PWA のインストールを完了します。
@@ -351,7 +385,7 @@ PWAを通じて、LobeChatはデスクトップとモバイルデバイスの両 ### `11` [モバイルデバイスの適応][docs-feat-mobile] -モバイルデバイスのユーザー体験を向上させるために、一連の最適化設計を行いました。現在、モバイルユーザー体験のバージョンを繰り返し改善しています。ご意見やアイデアがある場合は、GitHub IssuesやPull Requestsを通じてフィードバックをお寄せください。 +モバイルデバイスのユーザー体験を向上させるために、一連の最適化設計を行いました。現在、モバイルユーザー体験のバージョンを繰り返し改善しています。ご意見やアイデアがある場合は、GitHub Issues や Pull Requests を通じてフィードバックをお寄せください。
@@ -363,10 +397,10 @@ PWAを通じて、LobeChatはデスクトップとモバイルデバイスの両 ### `12` [カスタムテーマ][docs-feat-theme] -デザインエンジニアリング指向のアプリケーションとして、LobeChatはユーザーの個別体験を重視しており、 +デザインエンジニアリング指向のアプリケーションとして、LobeChat はユーザーの個別体験を重視しており、 柔軟で多様なテーマモードを導入しています。日中のライトモードと夜間のダークモードを含みます。 テーマモードの切り替えに加えて、さまざまな色のカスタマイズオプションを提供し、ユーザーが自分の好みに応じてアプリケーションのテーマカラーを調整できるようにしています。 -落ち着いたダークブルー、活気のあるピーチピンク、プロフェッショナルなグレーホワイトなど、LobeChatでは自分のスタイルに合った色の選択肢を見つけることができます。 +落ち着いたダークブルー、活気のあるピーチピンク、プロフェッショナルなグレーホワイトなど、LobeChat では自分のスタイルに合った色の選択肢を見つけることができます。 > \[!TIP] > @@ -381,21 +415,21 @@ PWAを通じて、LobeChatはデスクトップとモバイルデバイスの両 ### `*` その他の特徴 -これらの特徴に加えて、LobeChatは基本的な技術基盤も優れています: +これらの特徴に加えて、LobeChat は基本的な技術基盤も優れています: -- [x] 💨 **迅速なデプロイ**:VercelプラットフォームまたはDockerイメージを使用して、ワンクリックでデプロイを行い、1分以内にプロセスを完了できます。複雑な設定は不要です。 +- [x] 💨 **迅速なデプロイ**:Vercel プラットフォームまたは Docker イメージを使用して、ワンクリックでデプロイを行い、1 分以内にプロセスを完了できます。複雑な設定は不要です。 - [x] 🌐 **カスタムドメイン**:ユーザーが独自のドメインを持っている場合、プラットフォームにバインドして、どこからでも対話エージェントに迅速にアクセスできます。 - [x] 🔒 **プライバシー保護**:すべてのデータはユーザーのブラウザにローカルに保存され、ユーザーのプライバシーを保護します。 -- [x] 💎 **洗練されたUIデザイン**:慎重に設計されたインターフェースで、エレガントな外観とスムーズなインタラクションを提供します。ライトモードとダークモードをサポートし、モバイルフレンドリーです。PWAサポートにより、よりネイティブに近い体験を提供します。 -- [x] 🗣️ **スムーズな会話体験**:流れるような応答により、スムーズな会話体験を提供します。Markdownレンダリングを完全にサポートし、コードのハイライト、LaTexの数式、Mermaidのフローチャートなどを含みます。 +- [x] 💎 **洗練された UI デザイン**:慎重に設計されたインターフェースで、エレガントな外観とスムーズなインタラクションを提供します。ライトモードとダークモードをサポートし、モバイルフレンドリーです。PWA サポートにより、よりネイティブに近い体験を提供します。 +- [x] 🗣️ **スムーズな会話体験**:流れるような応答により、スムーズな会話体験を提供します。Markdown レンダリングを完全にサポートし、コードのハイライト、LaTex の数式、Mermaid のフローチャートなどを含みます。 -> ✨ LobeChatの進化に伴い、さらに多くの機能が追加されます。 +> ✨ LobeChat の進化に伴い、さらに多くの機能が追加されます。 --- > \[!NOTE] > -> 今後の[ロードマップ][github-project-link]計画は、Projectsセクションで確認できます。 +> 今後の[ロードマップ][github-project-link]計画は、Projects セクションで確認できます。
@@ -407,12 +441,12 @@ PWAを通じて、LobeChatはデスクトップとモバイルデバイスの両 > \[!NOTE] > -> 完全なレポートのリストは[📘 Lighthouseレポート][docs-lighthouse]で確認できます。 +> 完全なレポートのリストは[📘 Lighthouse レポート][docs-lighthouse]で確認できます。 -| デスクトップ | モバイル | -| :-----------------------------------------: | :----------------------------------------: | -| ![][chat-desktop] | ![][chat-mobile] | -| [📑 Lighthouseレポート][chat-desktop-report] | [📑 Lighthouseレポート][chat-mobile-report] | +| デスクトップ | モバイル | +| :-------------------------------------------: | :------------------------------------------: | +| ![][chat-desktop] | ![][chat-mobile] | +| [📑 Lighthouse レポート][chat-desktop-report] | [📑 Lighthouse レポート][chat-mobile-report] |
@@ -422,24 +456,24 @@ PWAを通じて、LobeChatはデスクトップとモバイルデバイスの両 ## 🛳 自己ホスティング -LobeChatは、Vercelと[Dockerイメージ][docker-release-link]を使用した自己ホスティングバージョンを提供しています。これにより、事前の知識がなくても数分で独自のチャットボットをデプロイできます。 +LobeChat は、Vercel と[Docker イメージ][docker-release-link]を使用した自己ホスティングバージョンを提供しています。これにより、事前の知識がなくても数分で独自のチャットボットをデプロイできます。 > \[!TIP] > -> [📘 独自のLobeChatを構築する][docs-self-hosting]について詳しくはこちらをご覧ください。 +> [📘 独自の LobeChat を構築する][docs-self-hosting]について詳しくはこちらをご覧ください。 -### `A` Vercel、Zeabur、Sealosでのデプロイ +### `A` Vercel、Zeabur、Sealos でのデプロイ -このサービスをVercelまたはZeaburでデプロイしたい場合は、以下の手順に従ってください: +このサービスを Vercel または Zeabur でデプロイしたい場合は、以下の手順に従ってください: - [OpenAI API Key](https://platform.openai.com/account/api-keys)を準備します。 -- 下のボタンをクリックしてデプロイを開始します:GitHubアカウントで直接ログインし、環境変数セクションに`OPENAI_API_KEY`(必須)と`ACCESS_CODE`(推奨)を入力します。 +- 下のボタンをクリックしてデプロイを開始します:GitHub アカウントで直接ログインし、環境変数セクションに`OPENAI_API_KEY`(必須)と`ACCESS_CODE`(推奨)を入力します。 - デプロイが完了したら、使用を開始できます。 -- カスタムドメインをバインド(オプション):Vercelが割り当てたドメインのDNSは一部の地域で汚染されているため、カスタムドメインをバインドすることで直接接続できます。 +- カスタムドメインをバインド(オプション):Vercel が割り当てたドメインの DNS は一部の地域で汚染されているため、カスタムドメインをバインドすることで直接接続できます。
-| Vercelでデプロイ | Zeaburでデプロイ | Sealosでデプロイ | +| Vercel でデプロイ | Zeabur でデプロイ | Sealos でデプロイ | | :-------------------------------------: | :---------------------------------------------------------: | :---------------------------------------------------------: | | [![][deploy-button-image]][deploy-link] | [![][deploy-on-zeabur-button-image]][deploy-on-zeabur-link] | [![][deploy-on-sealos-button-image]][deploy-on-sealos-link] | @@ -451,7 +485,7 @@ LobeChatは、Vercelと[Dockerイメージ][docker-release-link]を使用した #### 更新を維持 -READMEのワンクリックデプロイ手順に従って独自のプロジェクトをデプロイした場合、「更新が利用可能です」というプロンプトが常に表示されることがあります。これは、Vercelがデフォルトで新しいプロジェクトを作成し、フォークしないため、更新を正確に検出できないためです。 +README のワンクリックデプロイ手順に従って独自のプロジェクトをデプロイした場合、「更新が利用可能です」というプロンプトが常に表示されることがあります。これは、Vercel がデフォルトで新しいプロジェクトを作成し、フォークしないため、更新を正確に検出できないためです。 > \[!TIP] > @@ -459,13 +493,13 @@ READMEのワンクリックデプロイ手順に従って独自のプロジェ
-### `B` Dockerでのデプロイ +### `B` Docker でのデプロイ [![][docker-release-shield]][docker-release-link] [![][docker-size-shield]][docker-size-link] [![][docker-pulls-shield]][docker-pulls-link] -LobeChatサービスを独自のプライベートデバイスにデプロイするためのDockerイメージを提供しています。以下のコマンドを使用してLobeChatサービスを開始します: +LobeChat サービスを独自のプライベートデバイスにデプロイするための Docker イメージを提供しています。以下のコマンドを使用して LobeChat サービスを開始します: ```fish $ docker run -d -p 3210:3210 \ @@ -477,7 +511,7 @@ $ docker run -d -p 3210:3210 \ > \[!TIP] > -> OpenAIサービスをプロキシ経由で使用する必要がある場合は、`OPENAI_PROXY_URL`環境変数を使用してプロキシアドレスを設定できます: +> OpenAI サービスをプロキシ経由で使用する必要がある場合は、`OPENAI_PROXY_URL`環境変数を使用してプロキシアドレスを設定できます: ```fish $ docker run -d -p 3210:3210 \ @@ -490,7 +524,7 @@ $ docker run -d -p 3210:3210 \ > \[!NOTE] > -> Dockerを使用したデプロイの詳細な手順については、[📘 Dockerデプロイガイド][docs-docker]を参照してください。 +> Docker を使用したデプロイの詳細な手順については、[📘 Docker デプロイガイド][docs-docker]を参照してください。
@@ -498,12 +532,12 @@ $ docker run -d -p 3210:3210 \ このプロジェクトは、環境変数で設定される追加の構成項目を提供します: -| 環境変数 | 必須 | 説明 | 例 | -| -------------------- | -------- | ------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | -------------------------------------------------------------------------------------------------------------------- | -| `OPENAI_API_KEY` | はい | これはOpenAIアカウントページで申請したAPIキーです | `sk-xxxxxx...xxxxxx` | -| `OPENAI_PROXY_URL` | いいえ | OpenAIインターフェイスプロキシを手動で設定する場合、この設定項目を使って、デフォルトのOpenAI APIリクエストベースURLを上書きすることができます。 | `https://api.chatanywhere.cn` または `https://aihubmix.com/v1`
デフォルトの値は
`https://api.openai.com/v1` | -| `ACCESS_CODE` | いいえ | このサービスにアクセスするためのパスワードを追加します。漏洩を避けるために長いパスワードを設定することができます。この値にカンマが含まれる場合は、パスワードの配列となります。 | `awCTe)re_r74` または `rtrt_ewee3@09!` または `code1,code2,code3` | -| `OPENAI_MODEL_LIST` | いいえ | モデルリストをコントロールするために使用します。モデルを追加するには `+` を、モデルを非表示にするには `-` を、モデルの表示名をカンマ区切りでカスタマイズするには `model_name=display_name` を使用します。 | `qwen-7b-chat,+glm-6b,-gpt-3.5-turbo` | +| 環境変数 | 必須 | 説明 | 例 | +| ------------------- | ------ | --------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | -------------------------------------------------------------------------------------------------------------------- | +| `OPENAI_API_KEY` | はい | これは OpenAI アカウントページで申請した API キーです | `sk-xxxxxx...xxxxxx` | +| `OPENAI_PROXY_URL` | いいえ | OpenAI インターフェイスプロキシを手動で設定する場合、この設定項目を使って、デフォルトの OpenAI API リクエストベース URL を上書きすることができます。 | `https://api.chatanywhere.cn` または `https://aihubmix.com/v1`
デフォルトの値は
`https://api.openai.com/v1` | +| `ACCESS_CODE` | いいえ | このサービスにアクセスするためのパスワードを追加します。漏洩を避けるために長いパスワードを設定することができます。この値にカンマが含まれる場合は、パスワードの配列となります。 | `awCTe)re_r74` または `rtrt_ewee3@09!` または `code1,code2,code3` | +| `OPENAI_MODEL_LIST` | いいえ | モデルリストをコントロールするために使用します。モデルを追加するには `+` を、モデルを非表示にするには `-` を、モデルの表示名をカンマ区切りでカスタマイズするには `model_name=display_name` を使用します。 | `qwen-7b-chat,+glm-6b,-gpt-3.5-turbo` | > \[!NOTE] > @@ -517,11 +551,11 @@ $ docker run -d -p 3210:3210 \ ## 📦 エコシステム -| NPM | リポジトリ | 説明 | バージョン | -| --------------------------------- | --------------------------------------- | ----------------------------------------------------------------------------------------------------- | ----------------------------------------- | -| [@lobehub/ui][lobe-ui-link] | [lobehub/lobe-ui][lobe-ui-github] | AIGC ウェブアプリケーション構築専用のオープンソースUIコンポーネントライブラリ。 | [![][lobe-ui-shield]][lobe-ui-link] | -| [@lobehub/icons][lobe-icons-link] | [lobehub/lobe-icons][lobe-icons-github] | 人気の AI/LLM モデルブランドの SVG ロゴとアイコン集。 | [![][lobe-icons-shield]][lobe-icons-link] | -| [@lobehub/tts][lobe-tts-link] | [lobehub/lobe-tts][lobe-tts-github] | 高品質で信頼性の高い TTS/STT React Hooks ライブラリ | [![][lobe-tts-shield]][lobe-tts-link] | +| NPM | リポジトリ | 説明 | バージョン | +| --------------------------------- | --------------------------------------- | ------------------------------------------------------------------------------------- | ----------------------------------------- | +| [@lobehub/ui][lobe-ui-link] | [lobehub/lobe-ui][lobe-ui-github] | AIGC ウェブアプリケーション構築専用のオープンソース UI コンポーネントライブラリ。 | [![][lobe-ui-shield]][lobe-ui-link] | +| [@lobehub/icons][lobe-icons-link] | [lobehub/lobe-icons][lobe-icons-github] | 人気の AI/LLM モデルブランドの SVG ロゴとアイコン集。 | [![][lobe-icons-shield]][lobe-icons-link] | +| [@lobehub/tts][lobe-tts-link] | [lobehub/lobe-tts][lobe-tts-github] | 高品質で信頼性の高い TTS/STT React Hooks ライブラリ | [![][lobe-tts-shield]][lobe-tts-link] | | [@lobehub/lint][lobe-lint-link] | [lobehub/lobe-lint][lobe-lint-github] | LobeHub の ESlint、Stylelint、Commitlint、Prettier、Remark、Semantic Release の設定。 | [![][lobe-lint-shield]][lobe-lint-link] |
@@ -532,12 +566,12 @@ $ docker run -d -p 3210:3210 \ ## 🧩 プラグイン -プラグインは、LobeChatの[関数呼び出し][docs-functionc-call]機能を拡張する手段を提供します。プラグインを使用して、新しい関数呼び出しやメッセージ結果の新しいレンダリング方法を導入することができます。プラグイン開発に興味がある方は、Wikiの[📘プラグイン開発ガイド][docs-plugin-dev]を参照してください。 +プラグインは、LobeChat の[関数呼び出し][docs-functionc-call]機能を拡張する手段を提供します。プラグインを使用して、新しい関数呼び出しやメッセージ結果の新しいレンダリング方法を導入することができます。プラグイン開発に興味がある方は、Wiki の[📘プラグイン開発ガイド][docs-plugin-dev]を参照してください。 -- [lobe-chat-plugins][lobe-chat-plugins]: これはLobeChatのプラグインインデックスです。このリポジトリからindex.jsonにアクセスし、LobeChatで利用可能なプラグインのリストをユーザに表示します。 -- [chat-plugin-template][chat-plugin-template]: これはLobeChatプラグイン開発用のプラグインテンプレートです。 -- [@lobehub/chat-plugin-sdk][chat-plugin-sdk]: LobeChatプラグインSDKは、Lobe Chat用の優れたチャットプラグインの作成を支援します。 -- [@lobehub/chat-plugins-gateway][chat-plugins-gateway]: LobeChat Plugins Gatewayは、LobeChatプラグインのためのゲートウェイを提供するバックエンドサービスです。このサービスはVercelを使用してデプロイされます。プライマリAPIのPOST /api/v1/runnerはEdge Functionとしてデプロイされます。 +- [lobe-chat-plugins][lobe-chat-plugins]: これは LobeChat のプラグインインデックスです。このリポジトリから index.json にアクセスし、LobeChat で利用可能なプラグインのリストをユーザに表示します。 +- [chat-plugin-template][chat-plugin-template]: これは LobeChat プラグイン開発用のプラグインテンプレートです。 +- [@lobehub/chat-plugin-sdk][chat-plugin-sdk]: LobeChat プラグイン SDK は、Lobe Chat 用の優れたチャットプラグインの作成を支援します。 +- [@lobehub/chat-plugins-gateway][chat-plugins-gateway]: LobeChat Plugins Gateway は、LobeChat プラグインのためのゲートウェイを提供するバックエンドサービスです。このサービスは Vercel を使用してデプロイされます。プライマリ API の POST /api/v1/runner は Edge Function としてデプロイされます。 > \[!NOTE] > @@ -578,7 +612,7 @@ $ pnpm dev ## 🤝 コントリビュート -どのようなタイプのコントリビュートも大歓迎です;コードを提供することに興味がある方は、GitHub の [Issues][github-issues-link] や [Projects][github-project-link] をチェックして、あなたの力をお貸しください。 +どのようなタイプのコントリビュートも大歓迎です;コードを提供することに興味がある方は、GitHub の [Issues][github-issues-link] や [Projects][github-project-link] をチェックして、あなたの力をお貸しください。 > \[!TIP] > @@ -649,9 +683,9 @@ $ pnpm dev ## 🔗 その他の製品 -- **[🅰️ Lobe SD Theme][lobe-theme]:** Stable Diffusion WebUI のためのモダンなテーマ、絶妙なインターフェースデザイン、高度にカスタマイズ可能なUI、効率を高める機能。 +- **[🅰️ Lobe SD Theme][lobe-theme]:** Stable Diffusion WebUI のためのモダンなテーマ、絶妙なインターフェースデザイン、高度にカスタマイズ可能な UI、効率を高める機能。 - **[⛵️ Lobe Midjourney WebUI][lobe-midjourney-webui]:** Midjourney の WebUI は、AI を活用しテキストプロンプトから豊富で多様な画像を素早く生成し、創造性を刺激して会話を盛り上げます。 -- **[🌏 Lobe i18n][lobe-i18n] :** Lobe i18n は ChatGPT を利用した国際化翻訳プロセスの自動化ツールです。大きなファイルの自動分割、増分更新、OpenAIモデル、APIプロキシ、温度のカスタマイズオプションなどの機能をサポートしています。 +- **[🌏 Lobe i18n][lobe-i18n] :** Lobe i18n は ChatGPT を利用した国際化翻訳プロセスの自動化ツールです。大きなファイルの自動分割、増分更新、OpenAI モデル、API プロキシ、温度のカスタマイズオプションなどの機能をサポートしています。 - **[💌 Lobe Commit][lobe-commit]:** Lobe Commit は、Langchain/ChatGPT を活用して Gitmoji ベースのコミットメッセージを生成する CLI ツールです。
@@ -675,6 +709,7 @@ This project is [Apache 2.0](./LICENSE) licensed. [back-to-top]: https://img.shields.io/badge/-BACK_TO_TOP-151515?style=flat-square [blog]: https://lobehub.com/blog +[changelog]: https://lobehub.com/changelog [chat-desktop]: https://raw.githubusercontent.com/lobehub/lobe-chat/lighthouse/lighthouse/chat/desktop/pagespeed.svg [chat-desktop-report]: https://lobehub.github.io/lobe-chat/lighthouse/chat/desktop/chat_preview_lobehub_com_chat.html [chat-mobile]: https://raw.githubusercontent.com/lobehub/lobe-chat/lighthouse/lighthouse/chat/mobile/pagespeed.svg diff --git a/README.md b/README.md index 14d210686399..1460ce41040a 100644 --- a/README.md +++ b/README.md @@ -8,7 +8,7 @@ An open-source, modern-design ChatGPT/LLMs UI/Framework.
Supports speech-synthesis, multi-modal, and extensible ([function call][docs-functionc-call]) plugin system.
One-click **FREE** deployment of your private OpenAI ChatGPT/Claude/Gemini/Groq/Ollama chat application. -**English** · [简体中文](./README.zh-CN.md) · [日本語](./README.ja-JP.md) · [Official Site][official-site] · [Changelog](./CHANGELOG.md) · [Documents][docs] · [Blog][blog] · [Feedback][github-issues-link] +**English** · [简体中文](./README.zh-CN.md) · [日本語](./README.ja-JP.md) · [Official Site][official-site] · [Changelog][changelog] · [Documents][docs] · [Blog][blog] · [Feedback][github-issues-link] @@ -141,21 +141,55 @@ In this way, LobeChat can more flexibly adapt to the needs of different users, w We have implemented support for the following model service providers: -- **AWS Bedrock**: Integrated with AWS Bedrock service, supporting models such as **Claude / LLama2**, providing powerful natural language processing capabilities. [Learn more](https://aws.amazon.com/cn/bedrock) -- **Anthropic (Claude)**: Accessed Anthropic's **Claude** series models, including Claude 3 and Claude 2, with breakthroughs in multi-modal capabilities and extended context, setting a new industry benchmark. [Learn more](https://www.anthropic.com/claude) -- **Google AI (Gemini Pro, Gemini Vision)**: Access to Google's **Gemini** series models, including Gemini and Gemini Pro, to support advanced language understanding and generation. [Learn more](https://deepmind.google/technologies/gemini/) -- **Groq**: Accessed Groq's AI models, efficiently processing message sequences and generating responses, capable of multi-turn dialogues and single-interaction tasks. [Learn more](https://groq.com/) -- **OpenRouter**: Supports routing of models including **Claude 3**, **Gemma**, **Mistral**, **Llama2** and **Cohere**, with intelligent routing optimization to improve usage efficiency, open and flexible. [Learn more](https://openrouter.ai/) -- **01.AI (Yi Model)**: Integrated the 01.AI models, with series of APIs featuring fast inference speed, which not only shortened the processing time, but also maintained excellent model performance. [Learn more](https://01.ai/) -- **Together.ai**: Over 100 leading open-source Chat, Language, Image, Code, and Embedding models are available through the Together Inference API. For these models you pay just for what you use. [Learn more](https://www.together.ai/) -- **ChatGLM**: Added the **ChatGLM** series models from Zhipuai (GLM-4/GLM-4-vision/GLM-3-turbo), providing users with another efficient conversation model choice. [Learn more](https://www.zhipuai.cn/) -- **Moonshot AI (Dark Side of the Moon)**: Integrated with the Moonshot series models, an innovative AI startup from China, aiming to provide deeper conversation understanding. [Learn more](https://www.moonshot.cn/) -- **Minimax**: Integrated the Minimax models, including the MoE model **abab6**, offers a broader range of choices. [Learn more](https://www.minimaxi.com/) -- **DeepSeek**: Integrated with the DeepSeek series models, an innovative AI startup from China, The product has been designed to provide a model that balances performance with price. [Learn more](https://www.deepseek.com/) -- **Qwen**: Integrated the Qwen series models, including the latest **qwen-turbo**, **qwen-plus** and **qwen-max**. [Learn more](https://help.aliyun.com/zh/dashscope/developer-reference/model-introduction) -- **Novita AI**: Access **Llama**, **Mistral**, and other leading open-source models at cheapest prices. Engage in uncensored role-play, spark creative discussions, and foster unrestricted innovation. **Pay For What You Use.** [Learn more](https://novita.ai/llm-api?utm_source=lobechat&utm_medium=ch&utm_campaign=api) - -At the same time, we are also planning to support more model service providers, such as Replicate and Perplexity, to further enrich our service provider library. If you would like LobeChat to support your favorite service provider, feel free to join our [community discussion](https://github.com/lobehub/lobe-chat/discussions/1284). + + +- **[OpenAI](https://lobechat.com/discover/provider/openai)**: OpenAI is a global leader in artificial intelligence research, with models like the GPT series pushing the frontiers of natural language processing. OpenAI is committed to transforming multiple industries through innovative and efficient AI solutions. Their products demonstrate significant performance and cost-effectiveness, widely used in research, business, and innovative applications. +- **[Ollama](https://lobechat.com/discover/provider/ollama)**: Ollama provides models that cover a wide range of fields, including code generation, mathematical operations, multilingual processing, and conversational interaction, catering to diverse enterprise-level and localized deployment needs. +- **[Anthropic](https://lobechat.com/discover/provider/anthropic)**: Anthropic is a company focused on AI research and development, offering a range of advanced language models such as Claude 3.5 Sonnet, Claude 3 Sonnet, Claude 3 Opus, and Claude 3 Haiku. These models achieve an ideal balance between intelligence, speed, and cost, suitable for various applications from enterprise workloads to rapid-response scenarios. Claude 3.5 Sonnet, as their latest model, has excelled in multiple evaluations while maintaining a high cost-performance ratio. +- **[Bedrock](https://lobechat.com/discover/provider/bedrock)**: Bedrock is a service provided by Amazon AWS, focusing on delivering advanced AI language and visual models for enterprises. Its model family includes Anthropic's Claude series, Meta's Llama 3.1 series, and more, offering a range of options from lightweight to high-performance, supporting tasks such as text generation, conversation, and image processing for businesses of varying scales and needs. +- **[Google](https://lobechat.com/discover/provider/google)**: Google's Gemini series represents its most advanced, versatile AI models, developed by Google DeepMind, designed for multimodal capabilities, supporting seamless understanding and processing of text, code, images, audio, and video. Suitable for various environments from data centers to mobile devices, it significantly enhances the efficiency and applicability of AI models. +- **[DeepSeek](https://lobechat.com/discover/provider/deepseek)**: DeepSeek is a company focused on AI technology research and application, with its latest model DeepSeek-V2.5 integrating general dialogue and code processing capabilities, achieving significant improvements in human preference alignment, writing tasks, and instruction following. +- **[HuggingFace](https://lobechat.com/discover/provider/huggingface)**: The HuggingFace Inference API provides a fast and free way for you to explore thousands of models for various tasks. Whether you are prototyping for a new application or experimenting with the capabilities of machine learning, this API gives you instant access to high-performance models across multiple domains. +- **[OpenRouter](https://lobechat.com/discover/provider/openrouter)**: OpenRouter is a service platform providing access to various cutting-edge large model interfaces, supporting OpenAI, Anthropic, LLaMA, and more, suitable for diverse development and application needs. Users can flexibly choose the optimal model and pricing based on their requirements, enhancing the AI experience. +- **[Cloudflare Workers AI](https://lobechat.com/discover/provider/cloudflare)**: Run serverless GPU-powered machine learning models on Cloudflare's global network. +- **[GitHub](https://lobechat.com/discover/provider/github)**: With GitHub Models, developers can become AI engineers and leverage the industry's leading AI models. + +
See more providers (+26) + +- **[Novita](https://lobechat.com/discover/provider/novita)**: Novita AI is a platform providing a variety of large language models and AI image generation API services, flexible, reliable, and cost-effective. It supports the latest open-source models like Llama3 and Mistral, offering a comprehensive, user-friendly, and auto-scaling API solution for generative AI application development, suitable for the rapid growth of AI startups. +- **[Together AI](https://lobechat.com/discover/provider/togetherai)**: Together AI is dedicated to achieving leading performance through innovative AI models, offering extensive customization capabilities, including rapid scaling support and intuitive deployment processes to meet various enterprise needs. +- **[Fireworks AI](https://lobechat.com/discover/provider/fireworksai)**: Fireworks AI is a leading provider of advanced language model services, focusing on functional calling and multimodal processing. Its latest model, Firefunction V2, is based on Llama-3, optimized for function calling, conversation, and instruction following. The visual language model FireLLaVA-13B supports mixed input of images and text. Other notable models include the Llama series and Mixtral series, providing efficient multilingual instruction following and generation support. +- **[Groq](https://lobechat.com/discover/provider/groq)**: Groq's LPU inference engine has excelled in the latest independent large language model (LLM) benchmarks, redefining the standards for AI solutions with its remarkable speed and efficiency. Groq represents instant inference speed, demonstrating strong performance in cloud-based deployments. +- **[Perplexity](https://lobechat.com/discover/provider/perplexity)**: Perplexity is a leading provider of conversational generation models, offering various advanced Llama 3.1 models that support both online and offline applications, particularly suited for complex natural language processing tasks. +- **[Mistral](https://lobechat.com/discover/provider/mistral)**: Mistral provides advanced general, specialized, and research models widely used in complex reasoning, multilingual tasks, and code generation. Through functional calling interfaces, users can integrate custom functionalities for specific applications. +- **[Ai21Labs](https://lobechat.com/discover/provider/ai21)**: AI21 Labs builds foundational models and AI systems for enterprises, accelerating the application of generative AI in production. +- **[Upstage](https://lobechat.com/discover/provider/upstage)**: Upstage focuses on developing AI models for various business needs, including Solar LLM and document AI, aiming to achieve artificial general intelligence (AGI) for work. It allows for the creation of simple conversational agents through Chat API and supports functional calling, translation, embedding, and domain-specific applications. +- **[xAI](https://lobechat.com/discover/provider/xai)**: xAI is a company dedicated to building artificial intelligence to accelerate human scientific discovery. Our mission is to advance our collective understanding of the universe. +- **[Qwen](https://lobechat.com/discover/provider/qwen)**: Tongyi Qianwen is a large-scale language model independently developed by Alibaba Cloud, featuring strong natural language understanding and generation capabilities. It can answer various questions, create written content, express opinions, and write code, playing a role in multiple fields. +- **[Wenxin](https://lobechat.com/discover/provider/wenxin)**: An enterprise-level one-stop platform for large model and AI-native application development and services, providing the most comprehensive and user-friendly toolchain for the entire process of generative artificial intelligence model development and application development. +- **[Hunyuan](https://lobechat.com/discover/provider/hunyuan)**: A large language model developed by Tencent, equipped with powerful Chinese creative capabilities, logical reasoning abilities in complex contexts, and reliable task execution skills. +- **[Spark](https://lobechat.com/discover/provider/spark)**: iFlytek's Spark model provides powerful AI capabilities across multiple domains and languages, utilizing advanced natural language processing technology to build innovative applications suitable for smart hardware, smart healthcare, smart finance, and other vertical scenarios. +- **[ZhiPu](https://lobechat.com/discover/provider/zhipu)**: Zhipu AI offers an open platform for multimodal and language models, supporting a wide range of AI application scenarios, including text processing, image understanding, and programming assistance. +- **[01.AI](https://lobechat.com/discover/provider/zeroone)**: 01.AI focuses on AI 2.0 era technologies, vigorously promoting the innovation and application of 'human + artificial intelligence', using powerful models and advanced AI technologies to enhance human productivity and achieve technological empowerment. +- **[SenseNova](https://lobechat.com/discover/provider/sensenova)**: SenseNova, backed by SenseTime's robust infrastructure, offers efficient and user-friendly full-stack large model services. +- **[Stepfun](https://lobechat.com/discover/provider/stepfun)**: StepFun's large model possesses industry-leading multimodal and complex reasoning capabilities, supporting ultra-long text understanding and powerful autonomous scheduling search engine functions. +- **[Moonshot](https://lobechat.com/discover/provider/moonshot)**: Moonshot is an open-source platform launched by Beijing Dark Side Technology Co., Ltd., providing various natural language processing models with a wide range of applications, including but not limited to content creation, academic research, intelligent recommendations, and medical diagnosis, supporting long text processing and complex generation tasks. +- **[Baichuan](https://lobechat.com/discover/provider/baichuan)**: Baichuan Intelligence is a company focused on the research and development of large AI models, with its models excelling in domestic knowledge encyclopedias, long text processing, and generative creation tasks in Chinese, surpassing mainstream foreign models. Baichuan Intelligence also possesses industry-leading multimodal capabilities, performing excellently in multiple authoritative evaluations. Its models include Baichuan 4, Baichuan 3 Turbo, and Baichuan 3 Turbo 128k, each optimized for different application scenarios, providing cost-effective solutions. +- **[Minimax](https://lobechat.com/discover/provider/minimax)**: MiniMax is a general artificial intelligence technology company established in 2021, dedicated to co-creating intelligence with users. MiniMax has independently developed general large models of different modalities, including trillion-parameter MoE text models, voice models, and image models, and has launched applications such as Conch AI. +- **[360 AI](https://lobechat.com/discover/provider/ai360)**: 360 AI is an AI model and service platform launched by 360 Company, offering various advanced natural language processing models, including 360GPT2 Pro, 360GPT Pro, 360GPT Turbo, and 360GPT Turbo Responsibility 8K. These models combine large-scale parameters and multimodal capabilities, widely applied in text generation, semantic understanding, dialogue systems, and code generation. With flexible pricing strategies, 360 AI meets diverse user needs, supports developer integration, and promotes the innovation and development of intelligent applications. +- **[Taichu](https://lobechat.com/discover/provider/taichu)**: The Institute of Automation, Chinese Academy of Sciences, and Wuhan Artificial Intelligence Research Institute have launched a new generation of multimodal large models, supporting comprehensive question-answering tasks such as multi-turn Q\&A, text creation, image generation, 3D understanding, and signal analysis, with stronger cognitive, understanding, and creative abilities, providing a new interactive experience. +- **[InternLM](https://lobechat.com/discover/provider/internlm)**: An open-source organization dedicated to the research and development of large model toolchains. It provides an efficient and user-friendly open-source platform for all AI developers, making cutting-edge large models and algorithm technologies easily accessible. +- **[SiliconCloud](https://lobechat.com/discover/provider/siliconcloud)**: SiliconFlow is dedicated to accelerating AGI for the benefit of humanity, enhancing large-scale AI efficiency through an easy-to-use and cost-effective GenAI stack. +- **[Higress](https://lobechat.com/discover/provider/higress)**: Higress is a cloud-native API gateway that was developed internally at Alibaba to address the issues of Tengine reload affecting long-lived connections and the insufficient load balancing capabilities for gRPC/Dubbo. +- **[Gitee AI](https://lobechat.com/discover/provider/giteeai)**: Gitee AI's Serverless API provides AI developers with an out of the box large model inference API service. + +
+ +> 📊 Total providers: [**36**](https://lobechat.com/discover/providers) + + + +At the same time, we are also planning to support more model service providers. If you would like LobeChat to support your favorite service provider, feel free to join our [💬 community discussion](https://github.com/lobehub/lobe-chat/discussions/1284).
@@ -248,12 +282,12 @@ In addition, these plugins are not limited to news aggregation, but can also ext | Recent Submits | Description | | -------------------------------------------------------------------------------------------------------------- | -------------------------------------------------------------------------------------------------------------------- | -| [Google CSE](https://chat-preview.lobehub.com/settings/agent)
By **vsnthdev** on **2024-12-02** | Searches Google through their official CSE API.
`web` `search` | -| [Google CSE](https://chat-preview.lobehub.com/settings/agent)
By **vsnthdev** on **2024-12-02** | Searches Google through their official CSE API.
`web` `search` | -| [Speak](https://chat-preview.lobehub.com/settings/agent)
By **speak** on **2024-12-02** | Learn how to say anything in another language with Speak, your AI-powered language tutor.
`education` `language` | -| [Speak](https://chat-preview.lobehub.com/settings/agent)
By **speak** on **2024-12-02** | Learn how to say anything in another language with Speak, your AI-powered language tutor.
`education` `language` | +| [Google CSE](https://lobechat.com/discover/plugin/google-cse)
By **vsnthdev** on **2024-12-02** | Searches Google through their official CSE API.
`web` `search` | +| [Google CSE](https://lobechat.com/discover/plugin/google-cse)
By **vsnthdev** on **2024-12-02** | Searches Google through their official CSE API.
`web` `search` | +| [Speak](https://lobechat.com/discover/plugin/speak)
By **speak** on **2024-12-02** | Learn how to say anything in another language with Speak, your AI-powered language tutor.
`education` `language` | +| [Speak](https://lobechat.com/discover/plugin/speak)
By **speak** on **2024-12-02** | Learn how to say anything in another language with Speak, your AI-powered language tutor.
`education` `language` | -> 📊 Total plugins: [**98**](https://github.com/lobehub/lobe-chat-plugins) +> 📊 Total plugins: [**98**](https://lobechat.com/discover/plugins) @@ -285,14 +319,14 @@ Our marketplace is not just a showcase platform but also a collaborative space. -| Recent Submits | Description | -| ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------ | ------------------------------------------------------------------------------------------------------------------------------------------------------------------------ | -| [System Instruction Expert](https://chat-preview.lobehub.com/market?agent=instructer)
By **[yuyun2000](https://github.com/yuyun2000)** on **undefined** | Skilled in refining and generating efficient system instructions
`system-instructions` `writing` `detail-optimization` `user-needs` | -| [Japanese Memory Helper](https://chat-preview.lobehub.com/market?agent=japan-language-helper)
By **[sharkbear212](https://github.com/sharkbear212)** on **undefined** | Specializes in Japanese Hiragana, Katakana, vocabulary, and memory techniques for explanations and phrases
`explanation` `memory-techniques` `japanese-teaching` | -| [Poetry Card Designer](https://chat-preview.lobehub.com/market?agent=poetry-card-designer)
By **[lianxin255](https://github.com/lianxin255)** on **undefined** | Skilled in designing poetry cards to enhance artistic sense and appeal
`poetry-card-design` `card` `creativity` `artistic-expression` | -| [Daily Doctor](https://chat-preview.lobehub.com/market?agent=yunchat-docter)
By **[yuyun2000](https://github.com/yuyun2000)** on **undefined** | Specializes in surgical diagnosis and personalized health management
`general-medicine` `surgery` `health-consultation` `personalized-treatment` `medical-education` | +| Recent Submits | Description | +| ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | ------------------------------------------------------------------------------------------------------------------------------------------------------------------------ | +| [System Instruction Expert](https://lobechat.com/discover/assistant/instructer)
By **[yuyun2000](https://github.com/yuyun2000)** on **2024-12-04** | Skilled in refining and generating efficient system instructions
`system-instructions` `writing` `detail-optimization` `user-needs` | +| [Japanese Memory Helper](https://lobechat.com/discover/assistant/japan-language-helper)
By **[sharkbear212](https://github.com/sharkbear212)** on **2024-12-04** | Specializes in Japanese Hiragana, Katakana, vocabulary, and memory techniques for explanations and phrases
`explanation` `memory-techniques` `japanese-teaching` | +| [Poetry Card Designer](https://lobechat.com/discover/assistant/poetry-card-designer)
By **[lianxin255](https://github.com/lianxin255)** on **2024-12-03** | Skilled in designing poetry cards to enhance artistic sense and appeal
`poetry-card-design` `card` `creativity` `artistic-expression` | +| [Daily Doctor](https://lobechat.com/discover/assistant/yunchat-docter)
By **[yuyun2000](https://github.com/yuyun2000)** on **2024-11-30** | Specializes in surgical diagnosis and personalized health management
`general-medicine` `surgery` `health-consultation` `personalized-treatment` `medical-education` | -> 📊 Total agents: [**453** ](https://github.com/lobehub/lobe-chat-agents) +> 📊 Total agents: [**453** ](https://lobechat.com/discover/assistants) @@ -692,6 +726,7 @@ This project is [Apache 2.0](./LICENSE) licensed. [back-to-top]: https://img.shields.io/badge/-BACK_TO_TOP-151515?style=flat-square [blog]: https://lobehub.com/blog +[changelog]: https://lobehub.com/changelog [chat-desktop]: https://raw.githubusercontent.com/lobehub/lobe-chat/lighthouse/lighthouse/chat/desktop/pagespeed.svg [chat-desktop-report]: https://lobehub.github.io/lobe-chat/lighthouse/chat/desktop/chat_preview_lobehub_com_chat.html [chat-mobile]: https://raw.githubusercontent.com/lobehub/lobe-chat/lighthouse/lighthouse/chat/mobile/pagespeed.svg diff --git a/README.zh-CN.md b/README.zh-CN.md index bfeeee722bae..d0dab26a518a 100644 --- a/README.zh-CN.md +++ b/README.zh-CN.md @@ -8,7 +8,7 @@ 支持语音合成、多模态、可扩展的([function call][docs-functionc-call])插件系统
一键**免费**拥有你自己的 ChatGPT/Gemini/Claude/Ollama 应用 -[English](./README.md) · **简体中文** · [日本語](./README.ja-JP.md) · [官网][official-site] · [更新日志](./CHANGELOG.md) · [文档][docs] · [博客][blog] · [反馈问题][github-issues-link] +[English](./README.md) · **简体中文** · [日本語](./README.ja-JP.md) · [官网][official-site] · [更新日志][changelog] · [文档][docs] · [博客][blog] · [反馈问题][github-issues-link] @@ -141,21 +141,55 @@ LobeChat 支持文件上传与知识库功能,你可以上传文件、图片 我们已经实现了对以下模型服务商的支持: -- **AWS Bedrock**:集成了 AWS Bedrock 服务,支持了 **Claude / LLama2** 等模型,提供了强大的自然语言处理能力。[了解更多](https://aws.amazon.com/cn/bedrock) -- **Google AI (Gemini Pro、Gemini Vision)**:接入了 Google 的 **Gemini** 系列模型,包括 Gemini 和 Gemini Pro,以支持更高级的语言理解和生成。[了解更多](https://deepmind.google/technologies/gemini/) -- **Anthropic (Claude)**:接入了 Anthropic 的 **Claude** 系列模型,包括 Claude 3 和 Claude 2,多模态突破,超长上下文,树立行业新基准。[了解更多](https://www.anthropic.com/claude) -- **ChatGLM**:加入了智谱的 **ChatGLM** 系列模型(GLM-4/GLM-4-vision/GLM-3-turbo),为用户提供了另一种高效的会话模型选择。[了解更多](https://www.zhipuai.cn/) -- **Moonshot AI (月之暗面)**:集成了 Moonshot 系列模型,这是一家来自中国的创新性 AI 创业公司,旨在提供更深层次的会话理解。[了解更多](https://www.moonshot.cn/) -- **Together.ai**:集成部署了数百种开源模型和向量模型,无需本地部署即可随时访问这些模型。[了解更多](https://www.together.ai/) -- **01.AI (零一万物)**:集成了零一万物模型,系列 API 具备较快的推理速度,这不仅缩短了处理时间,同时也保持了出色的模型效果。[了解更多](https://www.lingyiwanwu.com/) -- **Groq**:接入了 Groq 的 AI 模型,高效处理消息序列,生成回应,胜任多轮对话及单次交互任务。[了解更多](https://groq.com/) -- **OpenRouter**:其支持包括 **Claude 3**,**Gemma**,**Mistral**,**Llama2**和**Cohere**等模型路由,支持智能路由优化,提升使用效率,开放且灵活。[了解更多](https://openrouter.ai/) -- **Minimax**: 接入了 Minimax 的 AI 模型,包括 MoE 模型 **abab6**,提供了更多的选择空间。[了解更多](https://www.minimaxi.com/) -- **DeepSeek**: 接入了 DeepSeek 的 AI 模型,包括最新的 **DeepSeek-V2**,提供兼顾性能与价格的模型。[了解更多](https://www.deepseek.com/) -- **Qwen**: 接入了 Qwen 的 AI 模型,包括最新的 **qwen-turbo**,**qwen-plus** 和 **qwen-max** 等模型。[了解更多](https://help.aliyun.com/zh/dashscope/developer-reference/model-introduction) -- **Novita AI**: 性价比最高的开源模型供应商,支持 **Llama**,**Mistral** 系列等最前沿的开源模型。在情感陪伴等场景表现优异,无任何内容限制或审查。 [了解更多](https://novita.ai/model-api/product/llm-api?utm_source=lobechat&utm_medium=ch&utm_campaign=api) - -同时,我们也在计划支持更多的模型服务商,如 Replicate 和 Perplexity 等,以进一步丰富我们的服务商库。如果你希望让 LobeChat 支持你喜爱的服务商,欢迎加入我们的[社区讨论](https://github.com/lobehub/lobe-chat/discussions/1284)。 + + +- **[OpenAI](https://lobechat.com/discover/provider/openai)**: OpenAI 是全球领先的人工智能研究机构,其开发的模型如 GPT 系列推动了自然语言处理的前沿。OpenAI 致力于通过创新和高效的 AI 解决方案改变多个行业。他们的产品具有显著的性能和经济性,广泛用于研究、商业和创新应用。 +- **[Ollama](https://lobechat.com/discover/provider/ollama)**: Ollama 提供的模型广泛涵盖代码生成、数学运算、多语种处理和对话互动等领域,支持企业级和本地化部署的多样化需求。 +- **[Anthropic](https://lobechat.com/discover/provider/anthropic)**: Anthropic 是一家专注于人工智能研究和开发的公司,提供了一系列先进的语言模型,如 Claude 3.5 Sonnet、Claude 3 Sonnet、Claude 3 Opus 和 Claude 3 Haiku。这些模型在智能、速度和成本之间取得了理想的平衡,适用于从企业级工作负载到快速响应的各种应用场景。Claude 3.5 Sonnet 作为其最新模型,在多项评估中表现优异,同时保持了较高的性价比。 +- **[Bedrock](https://lobechat.com/discover/provider/bedrock)**: Bedrock 是亚马逊 AWS 提供的一项服务,专注于为企业提供先进的 AI 语言模型和视觉模型。其模型家族包括 Anthropic 的 Claude 系列、Meta 的 Llama 3.1 系列等,涵盖从轻量级到高性能的多种选择,支持文本生成、对话、图像处理等多种任务,适用于不同规模和需求的企业应用。 +- **[Google](https://lobechat.com/discover/provider/google)**: Google 的 Gemini 系列是其最先进、通用的 AI 模型,由 Google DeepMind 打造,专为多模态设计,支持文本、代码、图像、音频和视频的无缝理解与处理。适用于从数据中心到移动设备的多种环境,极大提升了 AI 模型的效率与应用广泛性。 +- **[DeepSeek](https://lobechat.com/discover/provider/deepseek)**: DeepSeek 是一家专注于人工智能技术研究和应用的公司,其最新模型 DeepSeek-V2.5 融合了通用对话和代码处理能力,并在人类偏好对齐、写作任务和指令跟随等方面实现了显著提升。 +- **[HuggingFace](https://lobechat.com/discover/provider/huggingface)**: HuggingFace Inference API 提供了一种快速且免费的方式,让您可以探索成千上万种模型,适用于各种任务。无论您是在为新应用程序进行原型设计,还是在尝试机器学习的功能,这个 API 都能让您即时访问多个领域的高性能模型。 +- **[OpenRouter](https://lobechat.com/discover/provider/openrouter)**: OpenRouter 是一个提供多种前沿大模型接口的服务平台,支持 OpenAI、Anthropic、LLaMA 及更多,适合多样化的开发和应用需求。用户可根据自身需求灵活选择最优的模型和价格,助力 AI 体验的提升。 +- **[Cloudflare Workers AI](https://lobechat.com/discover/provider/cloudflare)**: 在 Cloudflare 的全球网络上运行由无服务器 GPU 驱动的机器学习模型。 +- **[GitHub](https://lobechat.com/discover/provider/github)**: 通过 GitHub 模型,开发人员可以成为 AI 工程师,并使用行业领先的 AI 模型进行构建。 + +
See more providers (+26) + +- **[Novita](https://lobechat.com/discover/provider/novita)**: Novita AI 是一个提供多种大语言模型与 AI 图像生成的 API 服务的平台,灵活、可靠且具有成本效益。它支持 Llama3、Mistral 等最新的开源模型,并为生成式 AI 应用开发提供了全面、用户友好且自动扩展的 API 解决方案,适合 AI 初创公司的快速发展。 +- **[Together AI](https://lobechat.com/discover/provider/togetherai)**: Together AI 致力于通过创新的 AI 模型实现领先的性能,提供广泛的自定义能力,包括快速扩展支持和直观的部署流程,满足企业的各种需求。 +- **[Fireworks AI](https://lobechat.com/discover/provider/fireworksai)**: Fireworks AI 是一家领先的高级语言模型服务商,专注于功能调用和多模态处理。其最新模型 Firefunction V2 基于 Llama-3,优化用于函数调用、对话及指令跟随。视觉语言模型 FireLLaVA-13B 支持图像和文本混合输入。其他 notable 模型包括 Llama 系列和 Mixtral 系列,提供高效的多语言指令跟随与生成支持。 +- **[Groq](https://lobechat.com/discover/provider/groq)**: Groq 的 LPU 推理引擎在最新的独立大语言模型(LLM)基准测试中表现卓越,以其惊人的速度和效率重新定义了 AI 解决方案的标准。Groq 是一种即时推理速度的代表,在基于云的部署中展现了良好的性能。 +- **[Perplexity](https://lobechat.com/discover/provider/perplexity)**: Perplexity 是一家领先的对话生成模型提供商,提供多种先进的 Llama 3.1 模型,支持在线和离线应用,特别适用于复杂的自然语言处理任务。 +- **[Mistral](https://lobechat.com/discover/provider/mistral)**: Mistral 提供先进的通用、专业和研究型模型,广泛应用于复杂推理、多语言任务、代码生成等领域,通过功能调用接口,用户可以集成自定义功能,实现特定应用。 +- **[Ai21Labs](https://lobechat.com/discover/provider/ai21)**: AI21 Labs 为企业构建基础模型和人工智能系统,加速生成性人工智能在生产中的应用。 +- **[Upstage](https://lobechat.com/discover/provider/upstage)**: Upstage 专注于为各种商业需求开发 AI 模型,包括 Solar LLM 和文档 AI,旨在实现工作的人造通用智能(AGI)。通过 Chat API 创建简单的对话代理,并支持功能调用、翻译、嵌入以及特定领域应用。 +- **[xAI](https://lobechat.com/discover/provider/xai)**: xAI 是一家致力于构建人工智能以加速人类科学发现的公司。我们的使命是推动我们对宇宙的共同理解。 +- **[Qwen](https://lobechat.com/discover/provider/qwen)**: 通义千问是阿里云自主研发的超大规模语言模型,具有强大的自然语言理解和生成能力。它可以回答各种问题、创作文字内容、表达观点看法、撰写代码等,在多个领域发挥作用。 +- **[Wenxin](https://lobechat.com/discover/provider/wenxin)**: 企业级一站式大模型与 AI 原生应用开发及服务平台,提供最全面易用的生成式人工智能模型开发、应用开发全流程工具链 +- **[Hunyuan](https://lobechat.com/discover/provider/hunyuan)**: 由腾讯研发的大语言模型,具备强大的中文创作能力,复杂语境下的逻辑推理能力,以及可靠的任务执行能力 +- **[Spark](https://lobechat.com/discover/provider/spark)**: 科大讯飞星火大模型提供多领域、多语言的强大 AI 能力,利用先进的自然语言处理技术,构建适用于智能硬件、智慧医疗、智慧金融等多种垂直场景的创新应用。 +- **[ZhiPu](https://lobechat.com/discover/provider/zhipu)**: 智谱 AI 提供多模态与语言模型的开放平台,支持广泛的 AI 应用场景,包括文本处理、图像理解与编程辅助等。 +- **[01.AI](https://lobechat.com/discover/provider/zeroone)**: 零一万物致力于推动以人为本的 AI 2.0 技术革命,旨在通过大语言模型创造巨大的经济和社会价值,并开创新的 AI 生态与商业模式。 +- **[SenseNova](https://lobechat.com/discover/provider/sensenova)**: 商汤日日新,依托商汤大装置的强大的基础支撑,提供高效易用的全栈大模型服务。 +- **[Stepfun](https://lobechat.com/discover/provider/stepfun)**: 阶级星辰大模型具备行业领先的多模态及复杂推理能力,支持超长文本理解和强大的自主调度搜索引擎功能。 +- **[Moonshot](https://lobechat.com/discover/provider/moonshot)**: Moonshot 是由北京月之暗面科技有限公司推出的开源平台,提供多种自然语言处理模型,应用领域广泛,包括但不限于内容创作、学术研究、智能推荐、医疗诊断等,支持长文本处理和复杂生成任务。 +- **[Baichuan](https://lobechat.com/discover/provider/baichuan)**: 百川智能是一家专注于人工智能大模型研发的公司,其模型在国内知识百科、长文本处理和生成创作等中文任务上表现卓越,超越了国外主流模型。百川智能还具备行业领先的多模态能力,在多项权威评测中表现优异。其模型包括 Baichuan 4、Baichuan 3 Turbo 和 Baichuan 3 Turbo 128k 等,分别针对不同应用场景进行优化,提供高性价比的解决方案。 +- **[Minimax](https://lobechat.com/discover/provider/minimax)**: MiniMax 是 2021 年成立的通用人工智能科技公司,致力于与用户共创智能。MiniMax 自主研发了不同模态的通用大模型,其中包括万亿参数的 MoE 文本大模型、语音大模型以及图像大模型。并推出了海螺 AI 等应用。 +- **[360 AI](https://lobechat.com/discover/provider/ai360)**: 360 AI 是 360 公司推出的 AI 模型和服务平台,提供多种先进的自然语言处理模型,包括 360GPT2 Pro、360GPT Pro、360GPT Turbo 和 360GPT Turbo Responsibility 8K。这些模型结合了大规模参数和多模态能力,广泛应用于文本生成、语义理解、对话系统与代码生成等领域。通过灵活的定价策略,360 AI 满足多样化用户需求,支持开发者集成,推动智能化应用的革新和发展。 +- **[Taichu](https://lobechat.com/discover/provider/taichu)**: 中科院自动化研究所和武汉人工智能研究院推出新一代多模态大模型,支持多轮问答、文本创作、图像生成、3D 理解、信号分析等全面问答任务,拥有更强的认知、理解、创作能力,带来全新互动体验。 +- **[InternLM](https://lobechat.com/discover/provider/internlm)**: 致力于大模型研究与开发工具链的开源组织。为所有 AI 开发者提供高效、易用的开源平台,让最前沿的大模型与算法技术触手可及 +- **[SiliconCloud](https://lobechat.com/discover/provider/siliconcloud)**: SiliconCloud,基于优秀开源基础模型的高性价比 GenAI 云服务 +- **[Higress](https://lobechat.com/discover/provider/higress)**: Higress 是一款云原生 API 网关,在阿里内部为解决 Tengine reload 对长连接业务有损,以及 gRPC/Dubbo 负载均衡能力不足而诞生。 +- **[Gitee AI](https://lobechat.com/discover/provider/giteeai)**: Gitee AI 的 Serverless API 为 AI 开发者提供开箱即用的大模型推理 API 服务。 + +
+ +> 📊 Total providers: [**36**](https://lobechat.com/discover/providers) + + + +同时,我们也在计划支持更多的模型服务商,以进一步丰富我们的服务商库。如果你希望让 LobeChat 支持你喜爱的服务商,欢迎加入我们的 [💬 社区讨论](https://github.com/lobehub/lobe-chat/discussions/1284)。
@@ -239,14 +273,14 @@ LobeChat 的插件生态系统是其核心功能的重要扩展,它极大地 -| 最近新增 | 插件描述 | -| ---------------------------------------------------------------------------------------------------------------------- | ------------------------------------------------------------------------------------------------------------------ | -| [谷歌自定义搜索引擎](https://chat-preview.lobehub.com/settings/agent)
By **vsnthdev** on **2024-12-02** | 通过他们的官方自定义搜索引擎 API 搜索谷歌。
`网络` `搜索` | -| [Speak](https://chat-preview.lobehub.com/settings/agent)
By **speak** on **2024-12-02** | 使用 Speak,您的 AI 语言导师,学习如何用另一种语言说任何事情。
`教育` `语言` | -| [通义万象图像生成器](https://chat-preview.lobehub.com/settings/agent)
By **YoungTx** on **2024-08-09** | 此插件使用阿里巴巴的通义万象模型根据文本提示生成图像。
`图像` `通义` `万象` | -| [购物工具](https://chat-preview.lobehub.com/settings/agent)
By **shoppingtools** on **2024-07-19** | 在 eBay 和 AliExpress 上搜索产品,查找 eBay 活动和优惠券。获取快速示例。
`购物` `e-bay` `ali-express` `优惠券` | +| 最近新增 | 描述 | +| ---------------------------------------------------------------------------------------------------------------------------- | ------------------------------------------------------------------------------------------------------------------ | +| [谷歌自定义搜索引擎](https://lobechat.com/discover/plugin/google-cse)
By **vsnthdev** on **2024-12-02** | 通过他们的官方自定义搜索引擎 API 搜索谷歌。
`网络` `搜索` | +| [Speak](https://lobechat.com/discover/plugin/speak)
By **speak** on **2024-12-02** | 使用 Speak,您的 AI 语言导师,学习如何用另一种语言说任何事情。
`教育` `语言` | +| [通义万象图像生成器](https://lobechat.com/discover/plugin/alps-tongyi-image)
By **YoungTx** on **2024-08-09** | 此插件使用阿里巴巴的通义万象模型根据文本提示生成图像。
`图像` `通义` `万象` | +| [购物工具](https://lobechat.com/discover/plugin/ShoppingTools)
By **shoppingtools** on **2024-07-19** | 在 eBay 和 AliExpress 上搜索产品,查找 eBay 活动和优惠券。获取快速示例。
`购物` `e-bay` `ali-express` `优惠券` | -> 📊 Total plugins: [**49**](https://github.com/lobehub/lobe-chat-plugins) +> 📊 Total plugins: [**49**](https://lobechat.com/discover/plugins) @@ -274,14 +308,14 @@ LobeChat 的插件生态系统是其核心功能的重要扩展,它极大地 -| 最近新增 | 助手说明 | -| ---------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | ----------------------------------------------------------------------------------------- | -| [系统指令专家](https://chat-preview.lobehub.com/market?agent=instructer)
By **[yuyun2000](https://github.com/yuyun2000)** on **undefined** | 擅长精炼与生成高效系统指令
`系统指令` `写作` `细节优化` `用户需求` | -| [日语帮助记忆师](https://chat-preview.lobehub.com/market?agent=japan-language-helper)
By **[sharkbear212](https://github.com/sharkbear212)** on **undefined** | 擅长日语五十音,平假名,片假名,单词和短语解释与记忆技巧
`解释` `记忆技巧` `日语教学` | -| [诗词卡片设计师](https://chat-preview.lobehub.com/market?agent=poetry-card-designer)
By **[lianxin255](https://github.com/lianxin255)** on **undefined** | 擅长设计诗词卡片,提升艺术感与吸引力
`诗词卡片设计` `卡片` `创意` `艺术表现` | -| [日常医生](https://chat-preview.lobehub.com/market?agent=yunchat-docter)
By **[yuyun2000](https://github.com/yuyun2000)** on **undefined** | 擅长外科诊疗与个性化健康管理
`全科医学` `外科` `健康咨询` `个性化治疗` `医学教育` | +| 最近新增 | 描述 | +| ----------------------------------------------------------------------------------------------------------------------------------------------------------------------- | ----------------------------------------------------------------------------------------- | +| [系统指令专家](https://lobechat.com/discover/assistant/instructer)
By **[yuyun2000](https://github.com/yuyun2000)** on **2024-12-04** | 擅长精炼与生成高效系统指令
`系统指令` `写作` `细节优化` `用户需求` | +| [日语帮助记忆师](https://lobechat.com/discover/assistant/japan-language-helper)
By **[sharkbear212](https://github.com/sharkbear212)** on **2024-12-04** | 擅长日语五十音,平假名,片假名,单词和短语解释与记忆技巧
`解释` `记忆技巧` `日语教学` | +| [诗词卡片设计师](https://lobechat.com/discover/assistant/poetry-card-designer)
By **[lianxin255](https://github.com/lianxin255)** on **2024-12-03** | 擅长设计诗词卡片,提升艺术感与吸引力
`诗词卡片设计` `卡片` `创意` `艺术表现` | +| [日常医生](https://lobechat.com/discover/assistant/yunchat-docter)
By **[yuyun2000](https://github.com/yuyun2000)** on **2024-11-30** | 擅长外科诊疗与个性化健康管理
`全科医学` `外科` `健康咨询` `个性化治疗` `医学教育` | -> 📊 Total agents: [**453** ](https://github.com/lobehub/lobe-chat-agents) +> 📊 Total agents: [**453** ](https://lobechat.com/discover/assistants) @@ -714,6 +748,7 @@ This project is [Apache 2.0](./LICENSE) licensed. [back-to-top]: https://img.shields.io/badge/-BACK_TO_TOP-151515?style=flat-square [blog]: https://lobehub.com/zh/blog +[changelog]: https://lobehub.com/changelog [chat-desktop]: https://raw.githubusercontent.com/lobehub/lobe-chat/lighthouse/lighthouse/chat/desktop/pagespeed.svg [chat-desktop-report]: https://lobehub.github.io/lobe-chat/lighthouse/chat/desktop/chat_preview_lobehub_com_chat.html [chat-mobile]: https://raw.githubusercontent.com/lobehub/lobe-chat/lighthouse/lighthouse/chat/mobile/pagespeed.svg diff --git a/locales/ar/models.json b/locales/ar/models.json index fb92bca3410a..5b9cf3066760 100644 --- a/locales/ar/models.json +++ b/locales/ar/models.json @@ -23,20 +23,6 @@ "4.0Ultra": { "description": "Spark4.0 Ultra هو أقوى إصدار في سلسلة نماذج Spark، حيث يعزز فهم النصوص وقدرات التلخيص مع تحسين روابط البحث عبر الإنترنت. إنه حل شامل يهدف إلى تعزيز إنتاجية المكتب والاستجابة الدقيقة للاحتياجات، ويعتبر منتجًا ذكيًا رائدًا في الصناعة." }, - "@cf/meta/llama-3-8b-instruct-awq": {}, - "@cf/openchat/openchat-3.5-0106": {}, - "@cf/qwen/qwen1.5-14b-chat-awq": {}, - "@hf/google/gemma-7b-it": {}, - "@hf/meta-llama/meta-llama-3-8b-instruct": { - "description": "من جيل إلى جيل، يظهر Meta Llama 3 أداءً متقدمًا في مجموعة واسعة من معايير الصناعة ويقدم قدرات جديدة، بما في ذلك تحسين التفكير." - }, - "@hf/mistral/mistral-7b-instruct-v0.2": {}, - "@hf/nexusflow/starling-lm-7b-beta": {}, - "@hf/nousresearch/hermes-2-pro-mistral-7b": {}, - "@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {}, - "@hf/thebloke/neural-chat-7b-v3-1-awq": {}, - "@hf/thebloke/openhermes-2.5-mistral-7b-awq": {}, - "@hf/thebloke/zephyr-7b-beta-awq": {}, "Baichuan2-Turbo": { "description": "يستخدم تقنية تعزيز البحث لتحقيق الربط الشامل بين النموذج الكبير والمعرفة الميدانية والمعرفة من جميع أنحاء الشبكة. يدعم تحميل مستندات PDF وWord وغيرها من المدخلات، مما يضمن الحصول على المعلومات بشكل سريع وشامل، ويقدم نتائج دقيقة واحترافية." }, @@ -127,7 +113,6 @@ "Nous-Hermes-2-Mixtral-8x7B-DPO": { "description": "Hermes 2 Mixtral 8x7B DPO هو دمج متعدد النماذج مرن للغاية، يهدف إلى تقديم تجربة إبداعية ممتازة." }, - "NousResearch/Hermes-3-Llama-3.1-8B": {}, "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": { "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) هو نموذج تعليمات عالي الدقة، مناسب للحسابات المعقدة." }, @@ -530,9 +515,6 @@ "cohere-command-r-plus": { "description": "نموذج RAG محسّن من الطراز الأول مصمم للتعامل مع أحمال العمل على مستوى المؤسسات." }, - "command-light": { - "description": "" - }, "command-r": { "description": "Command R هو نموذج LLM محسن لمهام الحوار والسياقات الطويلة، مناسب بشكل خاص للتفاعل الديناميكي وإدارة المعرفة." }, @@ -794,9 +776,6 @@ "hunyuan-functioncall": { "description": "نموذج Hunyuan الأحدث من نوع MOE FunctionCall، تم تدريبه على بيانات FunctionCall عالية الجودة، مع نافذة سياق تصل إلى 32K، ويحتل مرتبة متقدمة في مؤشرات التقييم عبر عدة أبعاد." }, - "hunyuan-large": { - "description": "" - }, "hunyuan-lite": { "description": "تم الترقية إلى هيكل MOE، مع نافذة سياق تصل إلى 256k، متفوقًا على العديد من النماذج مفتوحة المصدر في تقييمات NLP، البرمجة، الرياضيات، والصناعات." }, @@ -830,8 +809,6 @@ "internlm2.5-latest": { "description": "سلسلة نماذجنا الأحدث، تتمتع بأداء استدلال ممتاز، تدعم طول سياق يصل إلى 1 مليون، بالإضافة إلى قدرة أقوى على اتباع التعليمات واستدعاء الأدوات." }, - "jamba-1.5-large": {}, - "jamba-1.5-mini": {}, "learnlm-1.5-pro-experimental": { "description": "LearnLM هو نموذج لغوي تجريبي محدد المهام، تم تدريبه ليتماشى مع مبادئ علوم التعلم، يمكنه اتباع التعليمات النظامية في سيناريوهات التعليم والتعلم، ويعمل كمدرب خبير." }, @@ -1027,7 +1004,6 @@ "meta.llama3-8b-instruct-v1:0": { "description": "Meta Llama 3 هو نموذج لغوي كبير مفتوح (LLM) موجه للمطورين والباحثين والشركات، يهدف إلى مساعدتهم في بناء وتجربة وتوسيع أفكارهم في الذكاء الاصطناعي بشكل مسؤول. كجزء من نظام الابتكار المجتمعي العالمي، فهو مثالي للأجهزة ذات القدرة الحاسوبية والموارد المحدودة، والأجهزة الطرفية، وأوقات التدريب الأسرع." }, - "microsoft/Phi-3.5-mini-instruct": {}, "microsoft/WizardLM-2-8x22B": { "description": "WizardLM 2 هو نموذج لغوي تقدمه Microsoft AI، يتميز بأداء ممتاز في المحادثات المعقدة، واللغات المتعددة، والاستدلال، ومساعدات الذكاء." }, diff --git a/locales/ar/providers.json b/locales/ar/providers.json index 48523ad6fe13..ccae39bdf081 100644 --- a/locales/ar/providers.json +++ b/locales/ar/providers.json @@ -1,5 +1,7 @@ { - "ai21": {}, + "ai21": { + "description": "تقوم AI21 Labs ببناء نماذج أساسية وأنظمة ذكاء اصطناعي للشركات، مما يسرع من تطبيق الذكاء الاصطناعي التوليدي في الإنتاج." + }, "ai360": { "description": "AI 360 هي منصة نماذج وخدمات الذكاء الاصطناعي التي أطلقتها شركة 360، تقدم مجموعة متنوعة من نماذج معالجة اللغة الطبيعية المتقدمة، بما في ذلك 360GPT2 Pro و360GPT Pro و360GPT Turbo و360GPT Turbo Responsibility 8K. تجمع هذه النماذج بين المعلمات الكبيرة والقدرات متعددة الوسائط، وتستخدم على نطاق واسع في توليد النصوص، وفهم المعاني، وأنظمة الحوار، وتوليد الشيفرات. من خلال استراتيجيات تسعير مرنة، تلبي AI 360 احتياجات المستخدمين المتنوعة، وتدعم المطورين في التكامل، مما يعزز الابتكار والتطوير في التطبيقات الذكية." }, @@ -15,7 +17,9 @@ "bedrock": { "description": "Bedrock هي خدمة تقدمها أمازون AWS، تركز على توفير نماذج لغة ورؤية متقدمة للذكاء الاصطناعي للشركات. تشمل عائلة نماذجها سلسلة Claude من Anthropic وسلسلة Llama 3.1 من Meta، وتغطي مجموعة من الخيارات من النماذج الخفيفة إلى عالية الأداء، وتدعم مهام مثل توليد النصوص، والحوار، ومعالجة الصور، مما يجعلها مناسبة لتطبيقات الشركات بمختلف أحجامها واحتياجاتها." }, - "cloudflare": {}, + "cloudflare": { + "description": "تشغيل نماذج التعلم الآلي المدفوعة بوحدات معالجة الرسوميات بدون خادم على شبكة Cloudflare العالمية." + }, "deepseek": { "description": "DeepSeek هي شركة تركز على أبحاث وتطبيقات تقنيات الذكاء الاصطناعي، حيث يجمع نموذجها الأحدث DeepSeek-V2.5 بين قدرات الحوار العامة ومعالجة الشيفرات، وقد حقق تحسينات ملحوظة في محاذاة تفضيلات البشر، ومهام الكتابة، واتباع التعليمات." }, @@ -35,7 +39,7 @@ "description": "يتميز محرك الاستدلال LPU من Groq بأداء ممتاز في أحدث اختبارات المعايير لنماذج اللغة الكبيرة المستقلة (LLM)، حيث أعاد تعريف معايير حلول الذكاء الاصطناعي بسرعته وكفاءته المذهلة. Groq يمثل سرعة استدلال فورية، ويظهر أداءً جيدًا في النشر القائم على السحابة." }, "higress": { - "description": "" + "description": "Higress هو بوابة API سحابية الأصل، تم تطويرها داخل علي بابا لحل مشاكل إعادة تحميل Tengine التي تؤثر سلبًا على الأعمال ذات الاتصالات الطويلة، بالإضافة إلى نقص قدرات توازن الحمل لـ gRPC/Dubbo." }, "huggingface": { "description": "تقدم واجهة برمجة التطبيقات الخاصة بـ HuggingFace طريقة سريعة ومجانية لاستكشاف الآلاف من النماذج لمجموعة متنوعة من المهام. سواء كنت تقوم بتصميم نموذج أولي لتطبيق جديد أو تحاول استكشاف إمكانيات التعلم الآلي، فإن هذه الواجهة تتيح لك الوصول الفوري إلى نماذج عالية الأداء في مجالات متعددة." @@ -73,7 +77,9 @@ "qwen": { "description": "Qwen هو نموذج لغة ضخم تم تطويره ذاتيًا بواسطة Alibaba Cloud، يتمتع بقدرات قوية في فهم وتوليد اللغة الطبيعية. يمكنه الإجابة على مجموعة متنوعة من الأسئلة، وكتابة المحتوى، والتعبير عن الآراء، وكتابة الشيفرات، ويؤدي دورًا في مجالات متعددة." }, - "sensenova": {}, + "sensenova": { + "description": "تقدم شركة SenseTime خدمات نماذج كبيرة شاملة وسهلة الاستخدام، مدعومة بقوة من البنية التحتية الكبيرة لشركة SenseTime." + }, "siliconcloud": { "description": "تسعى SiliconFlow إلى تسريع الذكاء الاصطناعي العام (AGI) لفائدة البشرية، من خلال تحسين كفاءة الذكاء الاصطناعي على نطاق واسع باستخدام حزمة GenAI سهلة الاستخدام وذات التكلفة المنخفضة." }, diff --git a/locales/bg-BG/models.json b/locales/bg-BG/models.json index cfcceb004473..da464a8eb0a8 100644 --- a/locales/bg-BG/models.json +++ b/locales/bg-BG/models.json @@ -23,20 +23,6 @@ "4.0Ultra": { "description": "Spark4.0 Ultra е най-мощната версия в серията Starfire, която подобрява разбирането и обобщаването на текстовото съдържание, докато надгражда свързаните търсения. Това е всестранно решение за повишаване на производителността в офиса и точно отговаряне на нуждите, водещо в индустрията интелигентно решение." }, - "@cf/meta/llama-3-8b-instruct-awq": {}, - "@cf/openchat/openchat-3.5-0106": {}, - "@cf/qwen/qwen1.5-14b-chat-awq": {}, - "@hf/google/gemma-7b-it": {}, - "@hf/meta-llama/meta-llama-3-8b-instruct": { - "description": "Поколение след поколение, Meta Llama 3 демонстрира най-съвременна производителност в широк спектър от индустриални оценки и предлага нови възможности, включително подобрено разсъждение." - }, - "@hf/mistral/mistral-7b-instruct-v0.2": {}, - "@hf/nexusflow/starling-lm-7b-beta": {}, - "@hf/nousresearch/hermes-2-pro-mistral-7b": {}, - "@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {}, - "@hf/thebloke/neural-chat-7b-v3-1-awq": {}, - "@hf/thebloke/openhermes-2.5-mistral-7b-awq": {}, - "@hf/thebloke/zephyr-7b-beta-awq": {}, "Baichuan2-Turbo": { "description": "Използва технологии за подобряване на търсенето, за да свърже голям модел с областни знания и знания от интернет. Поддържа качване на различни документи като PDF, Word и вход на уебсайтове, с бърз и цялостен достъп до информация, предоставяйки точни и професионални резултати." }, @@ -127,7 +113,6 @@ "Nous-Hermes-2-Mixtral-8x7B-DPO": { "description": "Hermes 2 Mixtral 8x7B DPO е високо гъвкава многомоделна комбинация, предназначена да предостави изключителен креативен опит." }, - "NousResearch/Hermes-3-Llama-3.1-8B": {}, "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": { "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) е модел с висока точност за инструкции, подходящ за сложни изчисления." }, @@ -530,9 +515,6 @@ "cohere-command-r-plus": { "description": "Command R+ е модел, оптимизиран за RAG, проектиран да се справя с натоварвания на ниво предприятие." }, - "command-light": { - "description": "" - }, "command-r": { "description": "Command R е LLM, оптимизиран за диалогови и дълги контекстуални задачи, особено подходящ за динамично взаимодействие и управление на знания." }, @@ -794,9 +776,6 @@ "hunyuan-functioncall": { "description": "Най-новият модел на HunYuan с MOE архитектура за извикване на функции, обучен с висококачествени данни за извикване на функции, с контекстен прозорец от 32K, водещ в множество измерения на оценъчните показатели." }, - "hunyuan-large": { - "description": "" - }, "hunyuan-lite": { "description": "Актуализиран до MOE структура, контекстният прозорец е 256k, водещ в множество оценъчни набори в NLP, код, математика и индустрия, пред много от отворените модели." }, @@ -830,8 +809,6 @@ "internlm2.5-latest": { "description": "Нашата най-нова серия модели с изключителни способности за извеждане, поддържаща контекстна дължина от 1M и по-силни способности за следване на инструкции и извикване на инструменти." }, - "jamba-1.5-large": {}, - "jamba-1.5-mini": {}, "learnlm-1.5-pro-experimental": { "description": "LearnLM е експериментален езиков модел, специфичен за задачи, обучен да отговаря на принципите на научното обучение, способен да следва системни инструкции в учебни и обучителни сценарии, да действа като експертен ментор и др." }, @@ -1027,7 +1004,6 @@ "meta.llama3-8b-instruct-v1:0": { "description": "Meta Llama 3 е отворен голям езиков модел (LLM), насочен към разработчици, изследователи и предприятия, предназначен да им помогне да изградят, експериментират и отговорно разширят своите идеи за генеративен ИИ. Като част от основната система на глобалната общност за иновации, той е особено подходящ за устройства с ограничени изчислителни ресурси и по-бързо време за обучение." }, - "microsoft/Phi-3.5-mini-instruct": {}, "microsoft/WizardLM-2-8x22B": { "description": "WizardLM 2 е езиков модел, предоставен от Microsoft AI, който показва особени способности в сложни разговори, многоезичност, разсъждения и интелигентни асистенти." }, diff --git a/locales/bg-BG/providers.json b/locales/bg-BG/providers.json index 4cb566950289..9c4f453e6af3 100644 --- a/locales/bg-BG/providers.json +++ b/locales/bg-BG/providers.json @@ -1,5 +1,7 @@ { - "ai21": {}, + "ai21": { + "description": "AI21 Labs изгражда основни модели и системи за изкуствен интелект за предприятия, ускорявайки приложението на генеративния изкуствен интелект в производството." + }, "ai360": { "description": "360 AI е платформа за AI модели и услуги, предлагана от компания 360, предлагаща множество напреднали модели за обработка на естествен език, включително 360GPT2 Pro, 360GPT Pro, 360GPT Turbo и 360GPT Turbo Responsibility 8K. Тези модели комбинират голям брой параметри и мултимодални способности, широко използвани в текстово генериране, семантично разбиране, диалогови системи и генериране на код. Чрез гъвкава ценова стратегия, 360 AI отговаря на разнообразни потребителски нужди, поддържайки интеграция за разработчици и насърчавайки иновации и развитие на интелигентни приложения." }, @@ -15,7 +17,9 @@ "bedrock": { "description": "Bedrock е услуга, предоставяна от Amazon AWS, фокусирана върху предоставянето на напреднали AI езикови и визуални модели за предприятия. Семейството на моделите включва серията Claude на Anthropic, серията Llama 3.1 на Meta и други, обхващащи разнообразие от опции от леки до високо производителни, поддържащи текстово генериране, диалог, обработка на изображения и много други задачи, подходящи за различни мащаби и нужди на бизнес приложения." }, - "cloudflare": {}, + "cloudflare": { + "description": "Работа с модели на машинно обучение, задвижвани от безсървърни GPU, в глобалната мрежа на Cloudflare." + }, "deepseek": { "description": "DeepSeek е компания, специализирана в изследвания и приложения на технологии за изкуствен интелект, чийто най-нов модел DeepSeek-V2.5 комбинира способности за общи диалози и обработка на код, постигайки значителни подобрения в съответствието с човешките предпочитания, писателските задачи и следването на инструкции." }, @@ -35,7 +39,7 @@ "description": "Инженерният двигател LPU на Groq показва изключителни резултати в последните независими тестове на големи езикови модели (LLM), преосмисляйки стандартите за AI решения с невероятната си скорост и ефективност. Groq е представител на мигновен скорост на изводите, демонстрирайки добро представяне в облачни внедрения." }, "higress": { - "description": "" + "description": "Higress е облачно роден API шлюз, създаден в Alibaba, за да реши проблемите с Tengine reload, които вредят на дългосрочните връзки, и недостатъчните възможности за баланс на натоварването на gRPC/Dubbo." }, "huggingface": { "description": "HuggingFace Inference API предлагава бърз и безплатен начин да изследвате хиляди модели, подходящи за различни задачи. Независимо дали проектирате прототип за ново приложение, или опитвате функционалността на машинното обучение, този API ви предоставя незабавен достъп до високопроизводителни модели в множество области." @@ -73,7 +77,9 @@ "qwen": { "description": "Qwen е самостоятелно разработен свръхголям езиков модел на Alibaba Cloud, с мощни способности за разбиране и генериране на естествен език. Може да отговаря на различни въпроси, да създава текстово съдържание, да изразява мнения и да пише код, играейки роля в множество области." }, - "sensenova": {}, + "sensenova": { + "description": "SenseNova, с мощната основа на SenseTime, предлага ефективни и лесни за използване услуги за големи модели с пълен стек." + }, "siliconcloud": { "description": "SiliconFlow се стреми да ускори AGI, за да бъде от полза за човечеството, повишавайки ефективността на мащабния AI чрез лесен за използване и икономически изгоден GenAI стек." }, diff --git a/locales/de-DE/models.json b/locales/de-DE/models.json index 0faba7c02cae..bfdbca941c44 100644 --- a/locales/de-DE/models.json +++ b/locales/de-DE/models.json @@ -23,20 +23,6 @@ "4.0Ultra": { "description": "Spark4.0 Ultra ist die leistungsstärkste Version der Spark-Großmodellreihe, die die Online-Suchverbindung aktualisiert und die Fähigkeit zur Textverständnis und -zusammenfassung verbessert. Es ist eine umfassende Lösung zur Steigerung der Büroproduktivität und zur genauen Reaktion auf Anforderungen und ein führendes intelligentes Produkt in der Branche." }, - "@cf/meta/llama-3-8b-instruct-awq": {}, - "@cf/openchat/openchat-3.5-0106": {}, - "@cf/qwen/qwen1.5-14b-chat-awq": {}, - "@hf/google/gemma-7b-it": {}, - "@hf/meta-llama/meta-llama-3-8b-instruct": { - "description": "Generation über Generation zeigt Meta Llama 3 eine Spitzenleistung in einer Vielzahl von Branchenbenchmarks und bietet neue Fähigkeiten, einschließlich verbesserter Argumentation." - }, - "@hf/mistral/mistral-7b-instruct-v0.2": {}, - "@hf/nexusflow/starling-lm-7b-beta": {}, - "@hf/nousresearch/hermes-2-pro-mistral-7b": {}, - "@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {}, - "@hf/thebloke/neural-chat-7b-v3-1-awq": {}, - "@hf/thebloke/openhermes-2.5-mistral-7b-awq": {}, - "@hf/thebloke/zephyr-7b-beta-awq": {}, "Baichuan2-Turbo": { "description": "Verwendet Suchverbesserungstechnologie, um eine umfassende Verknüpfung zwischen großen Modellen und Fachwissen sowie Wissen aus dem gesamten Internet zu ermöglichen. Unterstützt das Hochladen von Dokumenten wie PDF, Word und die Eingabe von URLs, um Informationen zeitnah und umfassend zu erhalten, mit genauen und professionellen Ergebnissen." }, @@ -127,7 +113,6 @@ "Nous-Hermes-2-Mixtral-8x7B-DPO": { "description": "Hermes 2 Mixtral 8x7B DPO ist eine hochflexible Multi-Modell-Kombination, die darauf abzielt, außergewöhnliche kreative Erlebnisse zu bieten." }, - "NousResearch/Hermes-3-Llama-3.1-8B": {}, "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": { "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) ist ein hochpräzises Anweisungsmodell, das für komplexe Berechnungen geeignet ist." }, @@ -530,9 +515,6 @@ "cohere-command-r-plus": { "description": "Command R+ ist ein hochmodernes, RAG-optimiertes Modell, das für unternehmensgerechte Arbeitslasten konzipiert ist." }, - "command-light": { - "description": "" - }, "command-r": { "description": "Command R ist ein LLM, das für Dialoge und Aufgaben mit langen Kontexten optimiert ist und sich besonders gut für dynamische Interaktionen und Wissensmanagement eignet." }, @@ -794,9 +776,6 @@ "hunyuan-functioncall": { "description": "Das neueste MOE-Architektur-FunctionCall-Modell von Hunyuan, das mit hochwertigen FunctionCall-Daten trainiert wurde, hat ein Kontextfenster von 32K und führt in mehreren Bewertungsmetriken." }, - "hunyuan-large": { - "description": "" - }, "hunyuan-lite": { "description": "Aufgerüstet auf eine MOE-Struktur mit einem Kontextfenster von 256k, führt es in mehreren Bewertungssets in NLP, Code, Mathematik und Industrie zahlreiche Open-Source-Modelle an." }, @@ -830,8 +809,6 @@ "internlm2.5-latest": { "description": "Unsere neueste Modellreihe mit herausragender Schlussfolgerungsleistung, die eine Kontextlänge von 1M unterstützt und über verbesserte Anweisungsbefolgung und Toolaufrufmöglichkeiten verfügt." }, - "jamba-1.5-large": {}, - "jamba-1.5-mini": {}, "learnlm-1.5-pro-experimental": { "description": "LearnLM ist ein experimentelles, aufgabenorientiertes Sprachmodell, das darauf trainiert wurde, den Prinzipien der Lernwissenschaft zu entsprechen und in Lehr- und Lernszenarien systematische Anweisungen zu befolgen, als Expertenmentor zu fungieren usw." }, @@ -1027,7 +1004,6 @@ "meta.llama3-8b-instruct-v1:0": { "description": "Meta Llama 3 ist ein offenes großes Sprachmodell (LLM), das sich an Entwickler, Forscher und Unternehmen richtet und ihnen hilft, ihre Ideen für generative KI zu entwickeln, zu experimentieren und verantwortungsbewusst zu skalieren. Als Teil eines globalen Innovationssystems ist es besonders geeignet für Umgebungen mit begrenzter Rechenleistung und Ressourcen, für Edge-Geräte und schnellere Trainingszeiten." }, - "microsoft/Phi-3.5-mini-instruct": {}, "microsoft/WizardLM-2-8x22B": { "description": "WizardLM 2 ist ein Sprachmodell von Microsoft AI, das in komplexen Dialogen, Mehrsprachigkeit, Inferenz und intelligenten Assistenten besonders gut abschneidet." }, diff --git a/locales/de-DE/providers.json b/locales/de-DE/providers.json index cb97d5bf9457..e2e77447fc1a 100644 --- a/locales/de-DE/providers.json +++ b/locales/de-DE/providers.json @@ -1,5 +1,7 @@ { - "ai21": {}, + "ai21": { + "description": "AI21 Labs entwickelt Basis-Modelle und KI-Systeme für Unternehmen und beschleunigt die Anwendung generativer KI in der Produktion." + }, "ai360": { "description": "360 AI ist die von der 360 Company eingeführte Plattform für KI-Modelle und -Dienste, die eine Vielzahl fortschrittlicher Modelle zur Verarbeitung natürlicher Sprache anbietet, darunter 360GPT2 Pro, 360GPT Pro, 360GPT Turbo und 360GPT Turbo Responsibility 8K. Diese Modelle kombinieren große Parameter mit multimodalen Fähigkeiten und finden breite Anwendung in den Bereichen Textgenerierung, semantisches Verständnis, Dialogsysteme und Codegenerierung. Durch flexible Preisstrategien erfüllt 360 AI die vielfältigen Bedürfnisse der Nutzer, unterstützt Entwickler bei der Integration und fördert die Innovation und Entwicklung intelligenter Anwendungen." }, @@ -15,7 +17,9 @@ "bedrock": { "description": "Bedrock ist ein Service von Amazon AWS, der sich darauf konzentriert, Unternehmen fortschrittliche KI-Sprach- und visuelle Modelle bereitzustellen. Die Modellfamilie umfasst die Claude-Serie von Anthropic, die Llama 3.1-Serie von Meta und mehr, und bietet eine Vielzahl von Optionen von leichtgewichtig bis hochleistungsfähig, die Textgenerierung, Dialoge, Bildverarbeitung und andere Aufgaben unterstützen und für Unternehmensanwendungen unterschiedlicher Größen und Anforderungen geeignet sind." }, - "cloudflare": {}, + "cloudflare": { + "description": "Führen Sie von serverlosen GPUs betriebene Machine-Learning-Modelle im globalen Netzwerk von Cloudflare aus." + }, "deepseek": { "description": "DeepSeek ist ein Unternehmen, das sich auf die Forschung und Anwendung von KI-Technologien spezialisiert hat. Ihr neuestes Modell, DeepSeek-V2.5, kombiniert allgemeine Dialog- und Codeverarbeitungsfähigkeiten und hat signifikante Fortschritte in den Bereichen menschliche Präferenzanpassung, Schreibaufgaben und Befehlsbefolgung erzielt." }, @@ -35,7 +39,7 @@ "description": "Der LPU-Inferenz-Engine von Groq hat in den neuesten unabhängigen Benchmark-Tests für große Sprachmodelle (LLM) hervorragende Leistungen gezeigt und definiert mit seiner erstaunlichen Geschwindigkeit und Effizienz die Standards für KI-Lösungen neu. Groq ist ein Beispiel für sofortige Inferenzgeschwindigkeit und zeigt in cloudbasierten Bereitstellungen eine gute Leistung." }, "higress": { - "description": "" + "description": "Higress ist ein cloud-natives API-Gateway, das intern bei Alibaba entwickelt wurde, um die Probleme von Tengine Reload bei langanhaltenden Verbindungen zu lösen und die unzureichenden Lastverteilungsmöglichkeiten von gRPC/Dubbo zu verbessern." }, "huggingface": { "description": "Die HuggingFace Inference API bietet eine schnelle und kostenlose Möglichkeit, Tausende von Modellen für verschiedene Aufgaben zu erkunden. Egal, ob Sie Prototypen für neue Anwendungen erstellen oder die Funktionen des maschinellen Lernens ausprobieren, diese API ermöglicht Ihnen den sofortigen Zugriff auf leistungsstarke Modelle aus verschiedenen Bereichen." @@ -73,7 +77,9 @@ "qwen": { "description": "Tongyi Qianwen ist ein von Alibaba Cloud selbst entwickeltes, groß angelegtes Sprachmodell mit starken Fähigkeiten zur Verarbeitung und Generierung natürlicher Sprache. Es kann eine Vielzahl von Fragen beantworten, Texte erstellen, Meinungen äußern und Code schreiben und spielt in mehreren Bereichen eine Rolle." }, - "sensenova": {}, + "sensenova": { + "description": "SenseTime bietet mit der starken Basisunterstützung von SenseTimes großem Gerät effiziente und benutzerfreundliche Full-Stack-Modelldienste." + }, "siliconcloud": { "description": "SiliconFlow hat sich zum Ziel gesetzt, AGI zu beschleunigen, um der Menschheit zu dienen, und die Effizienz großangelegter KI durch eine benutzerfreundliche und kostengünstige GenAI-Stack zu steigern." }, diff --git a/locales/en-US/models.json b/locales/en-US/models.json index 2bc4a3634f65..d28e30f3bd2b 100644 --- a/locales/en-US/models.json +++ b/locales/en-US/models.json @@ -23,20 +23,6 @@ "4.0Ultra": { "description": "Spark4.0 Ultra is the most powerful version in the Spark large model series, enhancing text content understanding and summarization capabilities while upgrading online search links. It is a comprehensive solution for improving office productivity and accurately responding to demands, leading the industry as an intelligent product." }, - "@cf/meta/llama-3-8b-instruct-awq": {}, - "@cf/openchat/openchat-3.5-0106": {}, - "@cf/qwen/qwen1.5-14b-chat-awq": {}, - "@hf/google/gemma-7b-it": {}, - "@hf/meta-llama/meta-llama-3-8b-instruct": { - "description": "Generation over generation, Meta Llama 3 demonstrates state-of-the-art performance on a wide range of industry benchmarks and offers new capabilities, including improved reasoning." - }, - "@hf/mistral/mistral-7b-instruct-v0.2": {}, - "@hf/nexusflow/starling-lm-7b-beta": {}, - "@hf/nousresearch/hermes-2-pro-mistral-7b": {}, - "@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {}, - "@hf/thebloke/neural-chat-7b-v3-1-awq": {}, - "@hf/thebloke/openhermes-2.5-mistral-7b-awq": {}, - "@hf/thebloke/zephyr-7b-beta-awq": {}, "Baichuan2-Turbo": { "description": "Utilizes search enhancement technology to achieve comprehensive links between large models and domain knowledge, as well as knowledge from the entire web. Supports uploads of various documents such as PDF and Word, and URL input, providing timely and comprehensive information retrieval with accurate and professional output." }, @@ -127,7 +113,6 @@ "Nous-Hermes-2-Mixtral-8x7B-DPO": { "description": "Hermes 2 Mixtral 8x7B DPO is a highly flexible multi-model fusion designed to provide an exceptional creative experience." }, - "NousResearch/Hermes-3-Llama-3.1-8B": {}, "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": { "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) is a high-precision instruction model suitable for complex computations." }, @@ -530,9 +515,6 @@ "cohere-command-r-plus": { "description": "Command R+ is a state-of-the-art RAG-optimized model designed to tackle enterprise-grade workloads." }, - "command-light": { - "description": "" - }, "command-r": { "description": "Command R is an LLM optimized for dialogue and long context tasks, particularly suitable for dynamic interactions and knowledge management." }, @@ -794,9 +776,6 @@ "hunyuan-functioncall": { "description": "The latest MOE architecture FunctionCall model from Hunyuan, trained on high-quality FunctionCall data, with a context window of 32K, leading in multiple dimensions of evaluation metrics." }, - "hunyuan-large": { - "description": "" - }, "hunyuan-lite": { "description": "Upgraded to a MOE structure with a context window of 256k, leading many open-source models in various NLP, coding, mathematics, and industry benchmarks." }, @@ -830,8 +809,6 @@ "internlm2.5-latest": { "description": "Our latest model series, featuring exceptional reasoning performance, supporting a context length of 1M, and enhanced instruction following and tool invocation capabilities." }, - "jamba-1.5-large": {}, - "jamba-1.5-mini": {}, "learnlm-1.5-pro-experimental": { "description": "LearnLM is an experimental, task-specific language model trained to align with learning science principles, capable of following systematic instructions in teaching and learning scenarios, acting as an expert tutor, among other roles." }, @@ -1027,7 +1004,6 @@ "meta.llama3-8b-instruct-v1:0": { "description": "Meta Llama 3 is an open large language model (LLM) aimed at developers, researchers, and enterprises, designed to help them build, experiment, and responsibly scale their generative AI ideas. As part of a foundational system for global community innovation, it is particularly suitable for those with limited computational power and resources, edge devices, and faster training times." }, - "microsoft/Phi-3.5-mini-instruct": {}, "microsoft/WizardLM-2-8x22B": { "description": "WizardLM 2 is a language model provided by Microsoft AI, excelling in complex dialogues, multilingual capabilities, reasoning, and intelligent assistant tasks." }, diff --git a/locales/en-US/providers.json b/locales/en-US/providers.json index 3d9a75e44602..3825edf49aa4 100644 --- a/locales/en-US/providers.json +++ b/locales/en-US/providers.json @@ -1,5 +1,7 @@ { - "ai21": {}, + "ai21": { + "description": "AI21 Labs builds foundational models and AI systems for enterprises, accelerating the application of generative AI in production." + }, "ai360": { "description": "360 AI is an AI model and service platform launched by 360 Company, offering various advanced natural language processing models, including 360GPT2 Pro, 360GPT Pro, 360GPT Turbo, and 360GPT Turbo Responsibility 8K. These models combine large-scale parameters and multimodal capabilities, widely applied in text generation, semantic understanding, dialogue systems, and code generation. With flexible pricing strategies, 360 AI meets diverse user needs, supports developer integration, and promotes the innovation and development of intelligent applications." }, @@ -15,7 +17,9 @@ "bedrock": { "description": "Bedrock is a service provided by Amazon AWS, focusing on delivering advanced AI language and visual models for enterprises. Its model family includes Anthropic's Claude series, Meta's Llama 3.1 series, and more, offering a range of options from lightweight to high-performance, supporting tasks such as text generation, conversation, and image processing for businesses of varying scales and needs." }, - "cloudflare": {}, + "cloudflare": { + "description": "Run serverless GPU-powered machine learning models on Cloudflare's global network." + }, "deepseek": { "description": "DeepSeek is a company focused on AI technology research and application, with its latest model DeepSeek-V2.5 integrating general dialogue and code processing capabilities, achieving significant improvements in human preference alignment, writing tasks, and instruction following." }, @@ -35,7 +39,7 @@ "description": "Groq's LPU inference engine has excelled in the latest independent large language model (LLM) benchmarks, redefining the standards for AI solutions with its remarkable speed and efficiency. Groq represents instant inference speed, demonstrating strong performance in cloud-based deployments." }, "higress": { - "description": "" + "description": "Higress is a cloud-native API gateway that was developed internally at Alibaba to address the issues of Tengine reload affecting long-lived connections and the insufficient load balancing capabilities for gRPC/Dubbo." }, "huggingface": { "description": "The HuggingFace Inference API provides a fast and free way for you to explore thousands of models for various tasks. Whether you are prototyping for a new application or experimenting with the capabilities of machine learning, this API gives you instant access to high-performance models across multiple domains." @@ -73,7 +77,9 @@ "qwen": { "description": "Tongyi Qianwen is a large-scale language model independently developed by Alibaba Cloud, featuring strong natural language understanding and generation capabilities. It can answer various questions, create written content, express opinions, and write code, playing a role in multiple fields." }, - "sensenova": {}, + "sensenova": { + "description": "SenseNova, backed by SenseTime's robust infrastructure, offers efficient and user-friendly full-stack large model services." + }, "siliconcloud": { "description": "SiliconFlow is dedicated to accelerating AGI for the benefit of humanity, enhancing large-scale AI efficiency through an easy-to-use and cost-effective GenAI stack." }, diff --git a/locales/es-ES/models.json b/locales/es-ES/models.json index 62c94ebddfc9..b9e8788fa8ac 100644 --- a/locales/es-ES/models.json +++ b/locales/es-ES/models.json @@ -23,20 +23,6 @@ "4.0Ultra": { "description": "Spark4.0 Ultra es la versión más poderosa de la serie de modelos grandes de Xinghuo, mejorando la comprensión y capacidad de resumen de contenido textual al actualizar la conexión de búsqueda en línea. Es una solución integral para mejorar la productividad en la oficina y responder con precisión a las necesidades, siendo un producto inteligente líder en la industria." }, - "@cf/meta/llama-3-8b-instruct-awq": {}, - "@cf/openchat/openchat-3.5-0106": {}, - "@cf/qwen/qwen1.5-14b-chat-awq": {}, - "@hf/google/gemma-7b-it": {}, - "@hf/meta-llama/meta-llama-3-8b-instruct": { - "description": "Generación tras generación, Meta Llama 3 demuestra un rendimiento de vanguardia en una amplia gama de benchmarks de la industria y ofrece nuevas capacidades, incluyendo un razonamiento mejorado." - }, - "@hf/mistral/mistral-7b-instruct-v0.2": {}, - "@hf/nexusflow/starling-lm-7b-beta": {}, - "@hf/nousresearch/hermes-2-pro-mistral-7b": {}, - "@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {}, - "@hf/thebloke/neural-chat-7b-v3-1-awq": {}, - "@hf/thebloke/openhermes-2.5-mistral-7b-awq": {}, - "@hf/thebloke/zephyr-7b-beta-awq": {}, "Baichuan2-Turbo": { "description": "Utiliza tecnología de búsqueda mejorada para lograr un enlace completo entre el gran modelo y el conocimiento del dominio, así como el conocimiento de toda la red. Soporta la carga de documentos en PDF, Word y otros formatos, así como la entrada de URL, proporcionando información oportuna y completa, con resultados precisos y profesionales." }, @@ -127,7 +113,6 @@ "Nous-Hermes-2-Mixtral-8x7B-DPO": { "description": "Hermes 2 Mixtral 8x7B DPO es una fusión de múltiples modelos altamente flexible, diseñada para ofrecer una experiencia creativa excepcional." }, - "NousResearch/Hermes-3-Llama-3.1-8B": {}, "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": { "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) es un modelo de instrucciones de alta precisión, adecuado para cálculos complejos." }, @@ -530,9 +515,6 @@ "cohere-command-r-plus": { "description": "Command R+ es un modelo optimizado para RAG de última generación diseñado para abordar cargas de trabajo de nivel empresarial." }, - "command-light": { - "description": "" - }, "command-r": { "description": "Command R es un LLM optimizado para tareas de diálogo y contexto largo, especialmente adecuado para interacciones dinámicas y gestión del conocimiento." }, @@ -794,9 +776,6 @@ "hunyuan-functioncall": { "description": "El último modelo FunctionCall de Hunyuan con arquitectura MOE, entrenado con datos de FunctionCall de alta calidad, con una ventana de contexto de 32K, liderando en múltiples dimensiones de métricas de evaluación." }, - "hunyuan-large": { - "description": "" - }, "hunyuan-lite": { "description": "Actualizado a una estructura MOE, con una ventana de contexto de 256k, lidera en múltiples conjuntos de evaluación en NLP, código, matemáticas, industria y más, superando a muchos modelos de código abierto." }, @@ -830,8 +809,6 @@ "internlm2.5-latest": { "description": "Nuestra última serie de modelos, con un rendimiento de inferencia excepcional, que admite una longitud de contexto de 1M y una mayor capacidad de seguimiento de instrucciones y llamadas a herramientas." }, - "jamba-1.5-large": {}, - "jamba-1.5-mini": {}, "learnlm-1.5-pro-experimental": { "description": "LearnLM es un modelo de lenguaje experimental y específico para tareas, entrenado para cumplir con los principios de la ciencia del aprendizaje, capaz de seguir instrucciones sistemáticas en escenarios de enseñanza y aprendizaje, actuando como un tutor experto, entre otros." }, @@ -1027,7 +1004,6 @@ "meta.llama3-8b-instruct-v1:0": { "description": "Meta Llama 3 es un modelo de lenguaje de gran tamaño (LLM) abierto dirigido a desarrolladores, investigadores y empresas, diseñado para ayudarles a construir, experimentar y escalar de manera responsable sus ideas de IA generativa. Como parte de un sistema base para la innovación de la comunidad global, es ideal para dispositivos de borde con recursos y capacidades computacionales limitadas, así como para tiempos de entrenamiento más rápidos." }, - "microsoft/Phi-3.5-mini-instruct": {}, "microsoft/WizardLM-2-8x22B": { "description": "WizardLM 2 es un modelo de lenguaje proporcionado por Microsoft AI, que destaca en diálogos complejos, multilingüismo, razonamiento y asistentes inteligentes." }, diff --git a/locales/es-ES/providers.json b/locales/es-ES/providers.json index ef9a68858d8d..31602edcc04f 100644 --- a/locales/es-ES/providers.json +++ b/locales/es-ES/providers.json @@ -1,5 +1,7 @@ { - "ai21": {}, + "ai21": { + "description": "AI21 Labs construye modelos fundamentales y sistemas de inteligencia artificial para empresas, acelerando la aplicación de la inteligencia artificial generativa en producción." + }, "ai360": { "description": "360 AI es una plataforma de modelos y servicios de IA lanzada por la empresa 360, que ofrece una variedad de modelos avanzados de procesamiento del lenguaje natural, incluidos 360GPT2 Pro, 360GPT Pro, 360GPT Turbo y 360GPT Turbo Responsibility 8K. Estos modelos combinan parámetros a gran escala y capacidades multimodales, siendo ampliamente utilizados en generación de texto, comprensión semántica, sistemas de diálogo y generación de código. A través de una estrategia de precios flexible, 360 AI satisface diversas necesidades de los usuarios, apoyando la integración de desarrolladores y promoviendo la innovación y desarrollo de aplicaciones inteligentes." }, @@ -15,7 +17,9 @@ "bedrock": { "description": "Bedrock es un servicio proporcionado por Amazon AWS, enfocado en ofrecer modelos de lenguaje y visuales avanzados para empresas. Su familia de modelos incluye la serie Claude de Anthropic, la serie Llama 3.1 de Meta, entre otros, abarcando una variedad de opciones desde ligeras hasta de alto rendimiento, apoyando tareas como generación de texto, diálogos y procesamiento de imágenes, adecuadas para aplicaciones empresariales de diferentes escalas y necesidades." }, - "cloudflare": {}, + "cloudflare": { + "description": "Ejecuta modelos de aprendizaje automático impulsados por GPU sin servidor en la red global de Cloudflare." + }, "deepseek": { "description": "DeepSeek es una empresa centrada en la investigación y aplicación de tecnologías de inteligencia artificial, cuyo modelo más reciente, DeepSeek-V2.5, combina capacidades de diálogo general y procesamiento de código, logrando mejoras significativas en alineación con preferencias humanas, tareas de escritura y seguimiento de instrucciones." }, @@ -35,7 +39,7 @@ "description": "El motor de inferencia LPU de Groq ha demostrado un rendimiento excepcional en las pruebas de referencia de modelos de lenguaje de gran tamaño (LLM), redefiniendo los estándares de soluciones de IA con su asombrosa velocidad y eficiencia. Groq es un referente en velocidad de inferencia instantánea, mostrando un buen rendimiento en implementaciones basadas en la nube." }, "higress": { - "description": "" + "description": "Higress es una puerta de enlace API nativa de la nube, que nació en Alibaba para resolver los problemas que el recargado de Tengine causa en los negocios de conexiones largas, así como la insuficiencia de la capacidad de balanceo de carga de gRPC/Dubbo." }, "huggingface": { "description": "La API de Inferencia de HuggingFace ofrece una forma rápida y gratuita de explorar miles de modelos para diversas tareas. Ya sea que esté prototipando una nueva aplicación o probando las capacidades del aprendizaje automático, esta API le brinda acceso instantáneo a modelos de alto rendimiento en múltiples dominios." @@ -73,7 +77,9 @@ "qwen": { "description": "Tongyi Qianwen es un modelo de lenguaje de gran escala desarrollado de forma independiente por Alibaba Cloud, con potentes capacidades de comprensión y generación de lenguaje natural. Puede responder a diversas preguntas, crear contenido escrito, expresar opiniones y redactar código, desempeñando un papel en múltiples campos." }, - "sensenova": {}, + "sensenova": { + "description": "SenseTime ofrece servicios de modelos grandes de pila completa, aprovechando el sólido soporte de la gran infraestructura de SenseTime." + }, "siliconcloud": { "description": "SiliconFlow se dedica a acelerar la AGI para beneficiar a la humanidad, mejorando la eficiencia de la IA a gran escala a través de un stack GenAI fácil de usar y de bajo costo." }, diff --git a/locales/fa-IR/models.json b/locales/fa-IR/models.json index 44a2b635b64b..8d7ad3517947 100644 --- a/locales/fa-IR/models.json +++ b/locales/fa-IR/models.json @@ -23,20 +23,6 @@ "4.0Ultra": { "description": "Spark Ultra قدرتمندترین نسخه از سری مدل‌های بزرگ Spark است که با ارتقاء مسیر جستجوی متصل به شبکه، توانایی درک و خلاصه‌سازی محتوای متنی را بهبود می‌بخشد. این یک راه‌حل جامع برای افزایش بهره‌وری در محیط کار و پاسخگویی دقیق به نیازها است و به عنوان یک محصول هوشمند پیشرو در صنعت شناخته می‌شود." }, - "@cf/meta/llama-3-8b-instruct-awq": {}, - "@cf/openchat/openchat-3.5-0106": {}, - "@cf/qwen/qwen1.5-14b-chat-awq": {}, - "@hf/google/gemma-7b-it": {}, - "@hf/meta-llama/meta-llama-3-8b-instruct": { - "description": "نسل به نسل، Meta Llama 3 عملکردی پیشرفته در طیف وسیعی از معیارهای صنعتی نشان می‌دهد و قابلیت‌های جدیدی از جمله بهبود در استدلال را ارائه می‌دهد." - }, - "@hf/mistral/mistral-7b-instruct-v0.2": {}, - "@hf/nexusflow/starling-lm-7b-beta": {}, - "@hf/nousresearch/hermes-2-pro-mistral-7b": {}, - "@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {}, - "@hf/thebloke/neural-chat-7b-v3-1-awq": {}, - "@hf/thebloke/openhermes-2.5-mistral-7b-awq": {}, - "@hf/thebloke/zephyr-7b-beta-awq": {}, "Baichuan2-Turbo": { "description": "با استفاده از فناوری تقویت جستجو، مدل بزرگ را به دانش حوزه‌ای و دانش کل وب متصل می‌کند. از آپلود انواع اسناد مانند PDF، Word و همچنین وارد کردن آدرس‌های وب پشتیبانی می‌کند. اطلاعات به‌موقع و جامع دریافت می‌شود و نتایج خروجی دقیق و حرفه‌ای هستند." }, @@ -127,7 +113,6 @@ "Nous-Hermes-2-Mixtral-8x7B-DPO": { "description": "Hermes 2 Mixtral 8x7B DPO یک ترکیب چندمدلی بسیار انعطاف‌پذیر است که برای ارائه تجربه‌ای خلاقانه و برجسته طراحی شده است." }, - "NousResearch/Hermes-3-Llama-3.1-8B": {}, "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": { "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) یک مدل دستورالعمل با دقت بالا است که برای محاسبات پیچیده مناسب است." }, @@ -530,9 +515,6 @@ "cohere-command-r-plus": { "description": "Command R+ یک مدل پیشرفته بهینه‌سازی RAG است که برای مدیریت بارهای کاری در سطح سازمانی طراحی شده است." }, - "command-light": { - "description": "" - }, "command-r": { "description": "Command R یک LLM بهینه‌سازی شده برای مکالمات و وظایف با متن طولانی است که به‌ویژه برای تعاملات پویا و مدیریت دانش مناسب است." }, @@ -794,9 +776,6 @@ "hunyuan-functioncall": { "description": "مدل FunctionCall با معماری MOE جدید Hunyuan، آموزش‌دیده با داده‌های باکیفیت FunctionCall، با پنجره متنی تا 32K و پیشرو در چندین شاخص ارزیابی." }, - "hunyuan-large": { - "description": "" - }, "hunyuan-lite": { "description": "به ساختار MOE ارتقا یافته است، پنجره متنی 256k دارد و در چندین مجموعه ارزیابی در زمینه‌های NLP، کد، ریاضیات و صنایع از بسیاری از مدل‌های متن‌باز پیشی گرفته است." }, @@ -830,8 +809,6 @@ "internlm2.5-latest": { "description": "جدیدترین سری مدل‌های ما با عملکرد استدلال عالی، از طول متن ۱M پشتیبانی می‌کند و توانایی‌های قوی‌تری در پیروی از دستورات و فراخوانی ابزارها دارد." }, - "jamba-1.5-large": {}, - "jamba-1.5-mini": {}, "learnlm-1.5-pro-experimental": { "description": "LearnLM یک مدل زبانی تجربی و خاص برای وظایف است که برای مطابقت با اصول علم یادگیری آموزش دیده است و می‌تواند در سناریوهای آموزشی و یادگیری از دستورات سیستم پیروی کند و به عنوان مربی متخصص عمل کند." }, @@ -1027,7 +1004,6 @@ "meta.llama3-8b-instruct-v1:0": { "description": "Meta Llama 3 یک مدل زبان بزرگ باز (LLM) است که برای توسعه‌دهندگان، پژوهشگران و شرکت‌ها طراحی شده است تا به آن‌ها در ساخت، آزمایش و گسترش مسئولانه ایده‌های هوش مصنوعی مولد کمک کند. به عنوان بخشی از سیستم پایه نوآوری جامعه جهانی، این مدل برای دستگاه‌های با توان محاسباتی و منابع محدود، دستگاه‌های لبه و زمان‌های آموزش سریع‌تر بسیار مناسب است." }, - "microsoft/Phi-3.5-mini-instruct": {}, "microsoft/WizardLM-2-8x22B": { "description": "WizardLM 2 یک مدل زبانی است که توسط AI مایکروسافت ارائه شده و در زمینه‌های گفتگوی پیچیده، چند زبانه، استدلال و دستیار هوشمند به ویژه عملکرد خوبی دارد." }, diff --git a/locales/fa-IR/providers.json b/locales/fa-IR/providers.json index 96c556699729..908fb0bbac5b 100644 --- a/locales/fa-IR/providers.json +++ b/locales/fa-IR/providers.json @@ -1,5 +1,7 @@ { - "ai21": {}, + "ai21": { + "description": "AI21 Labs مدل‌های پایه و سیستم‌های هوش مصنوعی را برای کسب‌وکارها ایجاد می‌کند و به تسریع کاربرد هوش مصنوعی تولیدی در تولید کمک می‌کند." + }, "ai360": { "description": "360 AI پلتفرم مدل‌ها و خدمات هوش مصنوعی شرکت 360 است که مدل‌های پیشرفته پردازش زبان طبیعی متعددی از جمله 360GPT2 Pro، 360GPT Pro، 360GPT Turbo و 360GPT Turbo Responsibility 8K را ارائه می‌دهد. این مدل‌ها با ترکیب پارامترهای بزرگ‌مقیاس و قابلیت‌های چندوجهی، به طور گسترده در زمینه‌های تولید متن، درک معنایی، سیستم‌های مکالمه و تولید کد به کار می‌روند. با استفاده از استراتژی‌های قیمت‌گذاری انعطاف‌پذیر، 360 AI نیازهای متنوع کاربران را برآورده کرده و از یکپارچه‌سازی توسعه‌دهندگان پشتیبانی می‌کند و به نوآوری و توسعه کاربردهای هوشمند کمک می‌کند." }, @@ -15,7 +17,9 @@ "bedrock": { "description": "Bedrock یک سرویس ارائه شده توسط آمازون AWS است که بر ارائه مدل‌های پیشرفته زبان AI و مدل‌های بصری برای شرکت‌ها تمرکز دارد. خانواده مدل‌های آن شامل سری Claude از Anthropic، سری Llama 3.1 از Meta و غیره است که از مدل‌های سبک تا مدل‌های با عملکرد بالا را پوشش می‌دهد و از وظایفی مانند تولید متن، مکالمه و پردازش تصویر پشتیبانی می‌کند. این سرویس برای برنامه‌های شرکتی با مقیاس‌ها و نیازهای مختلف مناسب است." }, - "cloudflare": {}, + "cloudflare": { + "description": "مدل‌های یادگیری ماشین مبتنی بر GPU بدون سرور را در شبکه جهانی Cloudflare اجرا کنید." + }, "deepseek": { "description": "DeepSeek یک شرکت متمرکز بر تحقیق و کاربرد فناوری هوش مصنوعی است. مدل جدید آن، DeepSeek-V2.5، توانایی‌های مکالمه عمومی و پردازش کد را ترکیب کرده و در زمینه‌هایی مانند هم‌ترازی با ترجیحات انسانی، وظایف نوشتاری و پیروی از دستورات بهبود قابل توجهی داشته است." }, @@ -35,7 +39,7 @@ "description": "موتور استنتاج LPU شرکت Groq در آخرین آزمون‌های معیار مدل‌های زبانی بزرگ (LLM) مستقل عملکرد برجسته‌ای داشته و با سرعت و کارایی شگفت‌انگیز خود، استانداردهای راه‌حل‌های هوش مصنوعی را بازتعریف کرده است. Groq نمادی از سرعت استنتاج فوری است و در استقرارهای مبتنی بر ابر عملکرد خوبی از خود نشان داده است." }, "higress": { - "description": "" + "description": "Higress یک دروازه API ابری است که برای حل مشکلات مربوط به بارگذاری مجدد Tengine در کسب و کارهای با اتصالات طولانی و همچنین کمبود قابلیت‌های تعادل بار gRPC/Dubbo در داخل علی ایجاد شده است." }, "huggingface": { "description": "API استنتاج HuggingFace یک روش سریع و رایگان برای کاوش هزاران مدل برای وظایف مختلف ارائه می‌دهد. چه در حال طراحی نمونه اولیه برای یک برنامه جدید باشید و چه در حال آزمایش قابلیت‌های یادگیری ماشین، این API به شما امکان دسترسی فوری به مدل‌های با عملکرد بالا در چندین حوزه را می‌دهد." @@ -73,7 +77,9 @@ "qwen": { "description": "چوان یی چیان ون یک مدل زبان بسیار بزرگ است که توسط علی‌کلود به‌طور مستقل توسعه یافته و دارای توانایی‌های قدرتمند درک و تولید زبان طبیعی است. این مدل می‌تواند به انواع سوالات پاسخ دهد، محتوای متنی خلق کند، نظرات و دیدگاه‌ها را بیان کند، کد بنویسد و در حوزه‌های مختلف نقش ایفا کند." }, - "sensenova": {}, + "sensenova": { + "description": "سنسنووا، با تکیه بر زیرساخت‌های قوی سنس‌تک، خدمات مدل‌های بزرگ تمام‌پشته‌ای را به‌صورت کارآمد و آسان ارائه می‌دهد." + }, "siliconcloud": { "description": "SiliconCloud، یک سرویس ابری GenAI با کارایی بالا و مقرون‌به‌صرفه بر اساس مدل‌های منبع‌باز برجسته" }, diff --git a/locales/fr-FR/models.json b/locales/fr-FR/models.json index 53908abf7d83..43b9dfbdcad1 100644 --- a/locales/fr-FR/models.json +++ b/locales/fr-FR/models.json @@ -23,20 +23,6 @@ "4.0Ultra": { "description": "Spark4.0 Ultra est la version la plus puissante de la série de grands modèles Xinghuo, améliorant la compréhension et la capacité de résumé du contenu textuel tout en mettant à jour le lien de recherche en ligne. C'est une solution complète pour améliorer la productivité au bureau et répondre avec précision aux besoins, représentant un produit intelligent de premier plan dans l'industrie." }, - "@cf/meta/llama-3-8b-instruct-awq": {}, - "@cf/openchat/openchat-3.5-0106": {}, - "@cf/qwen/qwen1.5-14b-chat-awq": {}, - "@hf/google/gemma-7b-it": {}, - "@hf/meta-llama/meta-llama-3-8b-instruct": { - "description": "Génération après génération, Meta Llama 3 démontre des performances de pointe sur une large gamme de références industrielles et offre de nouvelles capacités, y compris un raisonnement amélioré." - }, - "@hf/mistral/mistral-7b-instruct-v0.2": {}, - "@hf/nexusflow/starling-lm-7b-beta": {}, - "@hf/nousresearch/hermes-2-pro-mistral-7b": {}, - "@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {}, - "@hf/thebloke/neural-chat-7b-v3-1-awq": {}, - "@hf/thebloke/openhermes-2.5-mistral-7b-awq": {}, - "@hf/thebloke/zephyr-7b-beta-awq": {}, "Baichuan2-Turbo": { "description": "Utilise une technologie d'amélioration de recherche pour relier complètement le grand modèle aux connaissances sectorielles et aux connaissances du web. Supporte le téléchargement de divers documents tels que PDF, Word, et l'entrée d'URL, permettant une acquisition d'informations rapide et complète, avec des résultats précis et professionnels." }, @@ -127,7 +113,6 @@ "Nous-Hermes-2-Mixtral-8x7B-DPO": { "description": "Hermes 2 Mixtral 8x7B DPO est une fusion de modèles hautement flexible, visant à offrir une expérience créative exceptionnelle." }, - "NousResearch/Hermes-3-Llama-3.1-8B": {}, "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": { "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) est un modèle d'instructions de haute précision, adapté aux calculs complexes." }, @@ -530,9 +515,6 @@ "cohere-command-r-plus": { "description": "Command R+ est un modèle optimisé RAG de pointe conçu pour traiter des charges de travail de niveau entreprise." }, - "command-light": { - "description": "" - }, "command-r": { "description": "Command R est un LLM optimisé pour les tâches de dialogue et de long contexte, particulièrement adapté à l'interaction dynamique et à la gestion des connaissances." }, @@ -794,9 +776,6 @@ "hunyuan-functioncall": { "description": "Dernier modèle FunctionCall de l'architecture MOE Hunyuan, formé sur des données FunctionCall de haute qualité, avec une fenêtre contextuelle atteignant 32K, se classant parmi les meilleurs sur plusieurs dimensions d'évaluation." }, - "hunyuan-large": { - "description": "" - }, "hunyuan-lite": { "description": "Mise à niveau vers une structure MOE, avec une fenêtre contextuelle de 256k, en tête de nombreux modèles open source dans les évaluations NLP, code, mathématiques, industrie, etc." }, @@ -830,8 +809,6 @@ "internlm2.5-latest": { "description": "Notre dernière série de modèles, offrant des performances d'inférence exceptionnelles, prenant en charge une longueur de contexte de 1M et des capacités améliorées de suivi des instructions et d'appel d'outils." }, - "jamba-1.5-large": {}, - "jamba-1.5-mini": {}, "learnlm-1.5-pro-experimental": { "description": "LearnLM est un modèle de langage expérimental, spécifique à des tâches, formé pour respecter les principes des sciences de l'apprentissage, capable de suivre des instructions systématiques dans des contextes d'enseignement et d'apprentissage, agissant comme un mentor expert, entre autres." }, @@ -1027,7 +1004,6 @@ "meta.llama3-8b-instruct-v1:0": { "description": "Meta Llama 3 est un modèle de langage ouvert (LLM) destiné aux développeurs, chercheurs et entreprises, conçu pour les aider à construire, expérimenter et étendre de manière responsable leurs idées d'IA générative. En tant que partie intégrante d'un système de base pour l'innovation de la communauté mondiale, il est particulièrement adapté aux appareils à capacité de calcul et de ressources limitées, ainsi qu'à des temps d'entraînement plus rapides." }, - "microsoft/Phi-3.5-mini-instruct": {}, "microsoft/WizardLM-2-8x22B": { "description": "WizardLM 2 est un modèle de langage proposé par Microsoft AI, qui excelle dans les domaines des dialogues complexes, du multilinguisme, du raisonnement et des assistants intelligents." }, diff --git a/locales/fr-FR/providers.json b/locales/fr-FR/providers.json index b3f722bb5b86..35e168b2749a 100644 --- a/locales/fr-FR/providers.json +++ b/locales/fr-FR/providers.json @@ -1,5 +1,7 @@ { - "ai21": {}, + "ai21": { + "description": "AI21 Labs construit des modèles de base et des systèmes d'intelligence artificielle pour les entreprises, accélérant l'application de l'intelligence artificielle générative en production." + }, "ai360": { "description": "360 AI est une plateforme de modèles et de services IA lancée par la société 360, offrant divers modèles avancés de traitement du langage naturel, y compris 360GPT2 Pro, 360GPT Pro, 360GPT Turbo et 360GPT Turbo Responsibility 8K. Ces modèles combinent de grands paramètres et des capacités multimodales, largement utilisés dans la génération de texte, la compréhension sémantique, les systèmes de dialogue et la génération de code. Grâce à une stratégie de tarification flexible, 360 AI répond à des besoins variés des utilisateurs, soutenant l'intégration des développeurs et favorisant l'innovation et le développement des applications intelligentes." }, @@ -15,7 +17,9 @@ "bedrock": { "description": "Bedrock est un service proposé par Amazon AWS, axé sur la fourniture de modèles linguistiques et visuels avancés pour les entreprises. Sa famille de modèles comprend la série Claude d'Anthropic, la série Llama 3.1 de Meta, etc., offrant une variété d'options allant des modèles légers aux modèles haute performance, prenant en charge des tâches telles que la génération de texte, les dialogues et le traitement d'images, adaptées aux applications d'entreprise de différentes tailles et besoins." }, - "cloudflare": {}, + "cloudflare": { + "description": "Exécutez des modèles d'apprentissage automatique alimentés par GPU sans serveur sur le réseau mondial de Cloudflare." + }, "deepseek": { "description": "DeepSeek est une entreprise spécialisée dans la recherche et l'application des technologies d'intelligence artificielle, dont le dernier modèle, DeepSeek-V2.5, combine des capacités de dialogue général et de traitement de code, réalisant des améliorations significatives dans l'alignement des préférences humaines, les tâches d'écriture et le suivi des instructions." }, @@ -35,7 +39,7 @@ "description": "Le moteur d'inférence LPU de Groq a excellé dans les derniers tests de référence des grands modèles de langage (LLM), redéfinissant les normes des solutions IA grâce à sa vitesse et son efficacité impressionnantes. Groq représente une vitesse d'inférence instantanée, montrant de bonnes performances dans les déploiements basés sur le cloud." }, "higress": { - "description": "" + "description": "Higress est une passerelle API cloud-native, née au sein d'Alibaba pour résoudre les problèmes de rechargement de Tengine affectant les connexions persistantes, ainsi que le manque de capacités d'équilibrage de charge pour gRPC/Dubbo." }, "huggingface": { "description": "L'API d'inférence HuggingFace offre un moyen rapide et gratuit d'explorer des milliers de modèles adaptés à diverses tâches. Que vous soyez en train de prototyper une nouvelle application ou d'expérimenter les capacités de l'apprentissage automatique, cette API vous permet d'accéder instantanément à des modèles performants dans de nombreux domaines." @@ -73,7 +77,9 @@ "qwen": { "description": "Tongyi Qianwen est un modèle de langage à grande échelle développé de manière autonome par Alibaba Cloud, doté de puissantes capacités de compréhension et de génération du langage naturel. Il peut répondre à diverses questions, créer du contenu écrit, exprimer des opinions, rédiger du code, etc., jouant un rôle dans plusieurs domaines." }, - "sensenova": {}, + "sensenova": { + "description": "SenseNova, soutenue par la puissante infrastructure de SenseTime, offre des services de modèles de grande taille complets, efficaces et faciles à utiliser." + }, "siliconcloud": { "description": "SiliconFlow s'engage à accélérer l'AGI pour le bénéfice de l'humanité, en améliorant l'efficacité de l'IA à grande échelle grâce à une pile GenAI facile à utiliser et à faible coût." }, diff --git a/locales/it-IT/models.json b/locales/it-IT/models.json index cd03133908b9..43d5d9857bac 100644 --- a/locales/it-IT/models.json +++ b/locales/it-IT/models.json @@ -23,20 +23,6 @@ "4.0Ultra": { "description": "Spark4.0 Ultra è la versione più potente della serie di modelli Spark, migliorando la comprensione e la sintesi del contenuto testuale mentre aggiorna il collegamento alla ricerca online. È una soluzione completa per migliorare la produttività lavorativa e rispondere con precisione alle esigenze, rappresentando un prodotto intelligente all'avanguardia nel settore." }, - "@cf/meta/llama-3-8b-instruct-awq": {}, - "@cf/openchat/openchat-3.5-0106": {}, - "@cf/qwen/qwen1.5-14b-chat-awq": {}, - "@hf/google/gemma-7b-it": {}, - "@hf/meta-llama/meta-llama-3-8b-instruct": { - "description": "Generazione dopo generazione, Meta Llama 3 dimostra prestazioni all'avanguardia su una vasta gamma di benchmark del settore e offre nuove capacità, inclusa una ragionamento migliorato." - }, - "@hf/mistral/mistral-7b-instruct-v0.2": {}, - "@hf/nexusflow/starling-lm-7b-beta": {}, - "@hf/nousresearch/hermes-2-pro-mistral-7b": {}, - "@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {}, - "@hf/thebloke/neural-chat-7b-v3-1-awq": {}, - "@hf/thebloke/openhermes-2.5-mistral-7b-awq": {}, - "@hf/thebloke/zephyr-7b-beta-awq": {}, "Baichuan2-Turbo": { "description": "Utilizza tecnologie di ricerca avanzate per collegare completamente il grande modello con la conoscenza di settore e la conoscenza globale. Supporta il caricamento di vari documenti come PDF, Word e l'immissione di URL, con acquisizione di informazioni tempestiva e completa, e risultati di output accurati e professionali." }, @@ -127,7 +113,6 @@ "Nous-Hermes-2-Mixtral-8x7B-DPO": { "description": "Hermes 2 Mixtral 8x7B DPO è un modello altamente flessibile, progettato per offrire un'esperienza creativa eccezionale." }, - "NousResearch/Hermes-3-Llama-3.1-8B": {}, "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": { "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) è un modello di istruzioni ad alta precisione, adatto per calcoli complessi." }, @@ -530,9 +515,6 @@ "cohere-command-r-plus": { "description": "Command R+ è un modello ottimizzato per RAG all'avanguardia progettato per affrontare carichi di lavoro di livello aziendale." }, - "command-light": { - "description": "" - }, "command-r": { "description": "Command R è un LLM ottimizzato per compiti di dialogo e contesti lunghi, particolarmente adatto per interazioni dinamiche e gestione della conoscenza." }, @@ -794,9 +776,6 @@ "hunyuan-functioncall": { "description": "Ultimo modello FunctionCall con architettura MOE di Hunyuan, addestrato su dati di alta qualità per le chiamate di funzione, con una finestra di contesto di 32K, è in testa in vari indicatori di valutazione." }, - "hunyuan-large": { - "description": "" - }, "hunyuan-lite": { "description": "Aggiornato a una struttura MOE, con una finestra di contesto di 256k, è in testa a molti modelli open source in vari set di valutazione su NLP, codice, matematica e settori." }, @@ -830,8 +809,6 @@ "internlm2.5-latest": { "description": "La nostra ultima serie di modelli, con prestazioni di ragionamento eccezionali, supporta una lunghezza di contesto di 1M e offre una migliore capacità di seguire istruzioni e chiamare strumenti." }, - "jamba-1.5-large": {}, - "jamba-1.5-mini": {}, "learnlm-1.5-pro-experimental": { "description": "LearnLM è un modello linguistico sperimentale, specifico per compiti, addestrato per rispettare i principi della scienza dell'apprendimento, in grado di seguire istruzioni sistematiche in contesti di insegnamento e apprendimento, fungendo da tutor esperto." }, @@ -1027,7 +1004,6 @@ "meta.llama3-8b-instruct-v1:0": { "description": "Meta Llama 3 è un modello di linguaggio di grandi dimensioni (LLM) open source progettato per sviluppatori, ricercatori e aziende, per aiutarli a costruire, sperimentare e scalare responsabilmente le loro idee di AI generativa. Come parte di un sistema di base per l'innovazione della comunità globale, è particolarmente adatto per dispositivi a bassa potenza e risorse limitate, oltre a garantire tempi di addestramento più rapidi." }, - "microsoft/Phi-3.5-mini-instruct": {}, "microsoft/WizardLM-2-8x22B": { "description": "WizardLM 2 è un modello linguistico fornito da Microsoft AI, particolarmente efficace in conversazioni complesse, multilingue, ragionamento e assistenti intelligenti." }, diff --git a/locales/it-IT/providers.json b/locales/it-IT/providers.json index 955e8152e4b5..89f96835eed5 100644 --- a/locales/it-IT/providers.json +++ b/locales/it-IT/providers.json @@ -1,5 +1,7 @@ { - "ai21": {}, + "ai21": { + "description": "AI21 Labs costruisce modelli di base e sistemi di intelligenza artificiale per le imprese, accelerando l'adozione dell'intelligenza artificiale generativa in produzione." + }, "ai360": { "description": "360 AI è una piattaforma di modelli e servizi AI lanciata da 360 Company, che offre vari modelli avanzati di elaborazione del linguaggio naturale, tra cui 360GPT2 Pro, 360GPT Pro, 360GPT Turbo e 360GPT Turbo Responsibility 8K. Questi modelli combinano parametri su larga scala e capacità multimodali, trovando ampio utilizzo in generazione di testo, comprensione semantica, sistemi di dialogo e generazione di codice. Con strategie di prezzo flessibili, 360 AI soddisfa le esigenze diversificate degli utenti, supportando l'integrazione degli sviluppatori e promuovendo l'innovazione e lo sviluppo delle applicazioni intelligenti." }, @@ -15,7 +17,9 @@ "bedrock": { "description": "Bedrock è un servizio offerto da Amazon AWS, focalizzato sulla fornitura di modelli linguistici e visivi AI avanzati per le aziende. La sua famiglia di modelli include la serie Claude di Anthropic, la serie Llama 3.1 di Meta e altro, coprendo una varietà di opzioni da leggere a ad alte prestazioni, supportando generazione di testo, dialogo, elaborazione di immagini e altro, adatta a diverse applicazioni aziendali di varie dimensioni e necessità." }, - "cloudflare": {}, + "cloudflare": { + "description": "Esegui modelli di machine learning alimentati da GPU serverless sulla rete globale di Cloudflare." + }, "deepseek": { "description": "DeepSeek è un'azienda focalizzata sulla ricerca e applicazione della tecnologia AI, il cui ultimo modello DeepSeek-V2.5 combina capacità di dialogo generico e elaborazione del codice, realizzando miglioramenti significativi nell'allineamento delle preferenze umane, nei compiti di scrittura e nel rispetto delle istruzioni." }, @@ -35,7 +39,7 @@ "description": "Il motore di inferenza LPU di Groq ha mostrato prestazioni eccezionali nei recenti benchmark indipendenti sui modelli di linguaggio di grandi dimensioni (LLM), ridefinendo gli standard delle soluzioni AI con la sua incredibile velocità ed efficienza. Groq rappresenta una velocità di inferenza istantanea, mostrando buone prestazioni nelle implementazioni basate su cloud." }, "higress": { - "description": "" + "description": "Higress è un gateway API cloud-native, nato all'interno di Alibaba per risolvere i problemi causati dal ricaricamento di Tengine sulle connessioni persistenti e per migliorare le capacità di bilanciamento del carico di gRPC/Dubbo." }, "huggingface": { "description": "L'API di Inferenza di HuggingFace offre un modo rapido e gratuito per esplorare migliaia di modelli per una varietà di compiti. Che tu stia prototipando una nuova applicazione o cercando di sperimentare le funzionalità del machine learning, questa API ti consente di accedere immediatamente a modelli ad alte prestazioni in diversi ambiti." @@ -73,7 +77,9 @@ "qwen": { "description": "Qwen è un modello di linguaggio di grande scala sviluppato autonomamente da Alibaba Cloud, con potenti capacità di comprensione e generazione del linguaggio naturale. Può rispondere a varie domande, creare contenuti testuali, esprimere opinioni e scrivere codice, svolgendo un ruolo in vari settori." }, - "sensenova": {}, + "sensenova": { + "description": "SenseTime offre servizi di modelli di grandi dimensioni full-stack, supportati dalla potente infrastruttura di SenseTime." + }, "siliconcloud": { "description": "SiliconFlow si impegna ad accelerare l'AGI per il bene dell'umanità, migliorando l'efficienza dell'AI su larga scala attraverso stack GenAI facili da usare e a basso costo." }, diff --git a/locales/ja-JP/models.json b/locales/ja-JP/models.json index d3c729ce46f0..15a9814fb1d8 100644 --- a/locales/ja-JP/models.json +++ b/locales/ja-JP/models.json @@ -23,20 +23,6 @@ "4.0Ultra": { "description": "Spark4.0 Ultraは星火大モデルシリーズの中で最も強力なバージョンで、ネットワーク検索のリンクをアップグレードし、テキストコンテンツの理解と要約能力を向上させています。これは、オフィスの生産性を向上させ、要求に正確に応えるための全方位のソリューションであり、業界をリードするインテリジェントな製品です。" }, - "@cf/meta/llama-3-8b-instruct-awq": {}, - "@cf/openchat/openchat-3.5-0106": {}, - "@cf/qwen/qwen1.5-14b-chat-awq": {}, - "@hf/google/gemma-7b-it": {}, - "@hf/meta-llama/meta-llama-3-8b-instruct": { - "description": "Generation over generation, Meta Llama 3は幅広い業界ベンチマークで最先端のパフォーマンスを示し、改善された推論を含む新しい機能を提供します。" - }, - "@hf/mistral/mistral-7b-instruct-v0.2": {}, - "@hf/nexusflow/starling-lm-7b-beta": {}, - "@hf/nousresearch/hermes-2-pro-mistral-7b": {}, - "@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {}, - "@hf/thebloke/neural-chat-7b-v3-1-awq": {}, - "@hf/thebloke/openhermes-2.5-mistral-7b-awq": {}, - "@hf/thebloke/zephyr-7b-beta-awq": {}, "Baichuan2-Turbo": { "description": "検索強化技術を採用し、大モデルと分野知識、全網知識の全面的なリンクを実現しています。PDF、Wordなどのさまざまな文書のアップロードやURL入力をサポートし、情報取得が迅速かつ包括的で、出力結果は正確かつ専門的です。" }, @@ -127,7 +113,6 @@ "Nous-Hermes-2-Mixtral-8x7B-DPO": { "description": "Hermes 2 Mixtral 8x7B DPOは非常に柔軟なマルチモデル統合で、卓越した創造的体験を提供することを目的としています。" }, - "NousResearch/Hermes-3-Llama-3.1-8B": {}, "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": { "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B)は、高精度の指示モデルであり、複雑な計算に適しています。" }, @@ -530,9 +515,6 @@ "cohere-command-r-plus": { "description": "Command R+は、企業グレードのワークロードに対応するために設計された最先端のRAG最適化モデルです。" }, - "command-light": { - "description": "" - }, "command-r": { "description": "Command Rは、対話と長いコンテキストタスクに最適化されたLLMであり、特に動的なインタラクションと知識管理に適しています。" }, @@ -794,9 +776,6 @@ "hunyuan-functioncall": { "description": "混元の最新のMOEアーキテクチャFunctionCallモデルで、高品質のFunctionCallデータトレーニングを経て、コンテキストウィンドウは32Kに達し、複数の次元の評価指標でリーダーシップを発揮しています。" }, - "hunyuan-large": { - "description": "" - }, "hunyuan-lite": { "description": "MOE構造にアップグレードされ、コンテキストウィンドウは256kで、NLP、コード、数学、業界などの多くの評価セットで多くのオープンソースモデルをリードしています。" }, @@ -830,8 +809,6 @@ "internlm2.5-latest": { "description": "私たちの最新のモデルシリーズで、卓越した推論性能を持ち、1Mのコンテキスト長をサポートし、より強力な指示追従とツール呼び出し能力を備えています。" }, - "jamba-1.5-large": {}, - "jamba-1.5-mini": {}, "learnlm-1.5-pro-experimental": { "description": "LearnLMは、学習科学の原則に従って訓練された実験的なタスク特化型言語モデルで、教育や学習のシーンでシステムの指示に従い、専門的なメンターとして機能します。" }, @@ -1027,7 +1004,6 @@ "meta.llama3-8b-instruct-v1:0": { "description": "Meta Llama 3は、開発者、研究者、企業向けのオープンな大規模言語モデル(LLM)であり、生成AIのアイデアを構築、実験、責任を持って拡張するのを支援することを目的としています。世界的なコミュニティの革新の基盤システムの一部として、計算能力とリソースが限られたエッジデバイスや、より迅速なトレーニング時間に非常に適しています。" }, - "microsoft/Phi-3.5-mini-instruct": {}, "microsoft/WizardLM-2-8x22B": { "description": "WizardLM 2はMicrosoft AIが提供する言語モデルで、複雑な対話、多言語、推論、インテリジェントアシスタントの分野で特に優れた性能を発揮します。" }, diff --git a/locales/ja-JP/providers.json b/locales/ja-JP/providers.json index 988a31cccebf..8c74c0daf8ce 100644 --- a/locales/ja-JP/providers.json +++ b/locales/ja-JP/providers.json @@ -1,5 +1,7 @@ { - "ai21": {}, + "ai21": { + "description": "AI21 Labsは企業向けに基盤モデルと人工知能システムを構築し、生成的人工知能の生産への応用を加速します。" + }, "ai360": { "description": "360 AIは、360社が提供するAIモデルとサービスプラットフォームであり、360GPT2 Pro、360GPT Pro、360GPT Turbo、360GPT Turbo Responsibility 8Kなど、さまざまな先進的な自然言語処理モデルを提供しています。これらのモデルは、大規模なパラメータと多モーダル能力を組み合わせており、テキスト生成、意味理解、対話システム、コード生成などの分野で広く使用されています。柔軟な価格戦略を通じて、360 AIは多様なユーザーのニーズに応え、開発者の統合をサポートし、スマートアプリケーションの革新と発展を促進します。" }, @@ -15,7 +17,9 @@ "bedrock": { "description": "Bedrockは、Amazon AWSが提供するサービスで、企業に先進的なAI言語モデルと視覚モデルを提供することに特化しています。そのモデルファミリーには、AnthropicのClaudeシリーズやMetaのLlama 3.1シリーズなどが含まれ、軽量から高性能までのさまざまな選択肢を提供し、テキスト生成、対話、画像処理などの多様なタスクをサポートし、異なる規模とニーズの企業アプリケーションに適しています。" }, - "cloudflare": {}, + "cloudflare": { + "description": "Cloudflareのグローバルネットワーク上で、サーバーレスGPUによって駆動される機械学習モデルを実行します。" + }, "deepseek": { "description": "DeepSeekは、人工知能技術の研究と応用に特化した企業であり、最新のモデルDeepSeek-V2.5は、汎用対話とコード処理能力を融合させ、人間の好みの整合、ライティングタスク、指示の遵守などの面で顕著な向上を実現しています。" }, @@ -35,7 +39,7 @@ "description": "GroqのLPU推論エンジンは、最新の独立した大規模言語モデル(LLM)ベンチマークテストで卓越したパフォーマンスを示し、その驚異的な速度と効率でAIソリューションの基準を再定義しています。Groqは、即時推論速度の代表であり、クラウドベースの展開で良好なパフォーマンスを発揮しています。" }, "higress": { - "description": "" + "description": "Higressは、阿里内部でTengineのリロードが長期接続のビジネスに悪影響を及ぼすことや、gRPC/Dubboの負荷分散能力が不足している問題を解決するために生まれた、クラウドネイティブなAPIゲートウェイです。" }, "huggingface": { "description": "HuggingFace Inference APIは、数千のモデルをさまざまなタスクに対して探索するための迅速かつ無料の方法を提供します。新しいアプリケーションのプロトタイプを作成している場合でも、機械学習の機能を試している場合でも、このAPIは複数の分野の高性能モデルに即座にアクセスできるようにします。" @@ -73,7 +77,9 @@ "qwen": { "description": "通義千問は、アリババクラウドが独自に開発した超大規模言語モデルであり、強力な自然言語理解と生成能力を持っています。さまざまな質問に答えたり、文章を創作したり、意見を表現したり、コードを執筆したりすることができ、さまざまな分野で活躍しています。" }, - "sensenova": {}, + "sensenova": { + "description": "商湯日日新は、商湯の強力な基盤支援に基づき、高効率で使いやすい全スタックの大規模モデルサービスを提供します。" + }, "siliconcloud": { "description": "SiliconFlowは、AGIを加速させ、人類に利益をもたらすことを目指し、使いやすくコスト効率の高いGenAIスタックを通じて大規模AIの効率を向上させることに取り組んでいます。" }, diff --git a/locales/ko-KR/models.json b/locales/ko-KR/models.json index a3bf5bc70c6f..f2d317a0896c 100644 --- a/locales/ko-KR/models.json +++ b/locales/ko-KR/models.json @@ -23,20 +23,6 @@ "4.0Ultra": { "description": "Spark4.0 Ultra는 스타크 대형 모델 시리즈 중 가장 강력한 버전으로, 업그레이드된 네트워크 검색 링크와 함께 텍스트 내용의 이해 및 요약 능력을 향상시킵니다. 사무 생산성을 높이고 정확한 요구에 응답하기 위한 종합 솔루션으로, 업계를 선도하는 스마트 제품입니다." }, - "@cf/meta/llama-3-8b-instruct-awq": {}, - "@cf/openchat/openchat-3.5-0106": {}, - "@cf/qwen/qwen1.5-14b-chat-awq": {}, - "@hf/google/gemma-7b-it": {}, - "@hf/meta-llama/meta-llama-3-8b-instruct": { - "description": "세대에서 세대로, Meta Llama 3는 다양한 산업 벤치마크에서 최첨단 성능을 보여주며, 개선된 추론을 포함한 새로운 기능을 제공합니다." - }, - "@hf/mistral/mistral-7b-instruct-v0.2": {}, - "@hf/nexusflow/starling-lm-7b-beta": {}, - "@hf/nousresearch/hermes-2-pro-mistral-7b": {}, - "@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {}, - "@hf/thebloke/neural-chat-7b-v3-1-awq": {}, - "@hf/thebloke/openhermes-2.5-mistral-7b-awq": {}, - "@hf/thebloke/zephyr-7b-beta-awq": {}, "Baichuan2-Turbo": { "description": "검색 강화 기술을 통해 대형 모델과 분야 지식, 전 세계 지식의 완전한 연결을 실현합니다. PDF, Word 등 다양한 문서 업로드 및 웹사이트 입력을 지원하며, 정보 획득이 신속하고 포괄적이며, 출력 결과가 정확하고 전문적입니다." }, @@ -127,7 +113,6 @@ "Nous-Hermes-2-Mixtral-8x7B-DPO": { "description": "Hermes 2 Mixtral 8x7B DPO는 뛰어난 창의적 경험을 제공하기 위해 설계된 고도로 유연한 다중 모델 통합입니다." }, - "NousResearch/Hermes-3-Llama-3.1-8B": {}, "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": { "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B)는 고정밀 지시 모델로, 복잡한 계산에 적합합니다." }, @@ -530,9 +515,6 @@ "cohere-command-r-plus": { "description": "Command R+는 기업급 작업을 처리하기 위해 설계된 최첨단 RAG 최적화 모델입니다." }, - "command-light": { - "description": "" - }, "command-r": { "description": "Command R은 대화 및 긴 컨텍스트 작업에 최적화된 LLM으로, 동적 상호작용 및 지식 관리에 특히 적합합니다." }, @@ -794,9 +776,6 @@ "hunyuan-functioncall": { "description": "혼원 최신 MOE 구조의 FunctionCall 모델로, 고품질 FunctionCall 데이터 훈련을 거쳤으며, 컨텍스트 윈도우는 32K에 도달하고 여러 차원의 평가 지표에서 선두에 있습니다." }, - "hunyuan-large": { - "description": "" - }, "hunyuan-lite": { "description": "MOE 구조로 업그레이드되었으며, 컨텍스트 윈도우는 256k로 설정되어 NLP, 코드, 수학, 산업 등 여러 평가 집합에서 많은 오픈 소스 모델을 선도하고 있습니다." }, @@ -830,8 +809,6 @@ "internlm2.5-latest": { "description": "우리가 최신으로 선보이는 모델 시리즈로, 뛰어난 추론 성능을 자랑하며 1M의 컨텍스트 길이와 더 강력한 지시 따르기 및 도구 호출 기능을 지원합니다." }, - "jamba-1.5-large": {}, - "jamba-1.5-mini": {}, "learnlm-1.5-pro-experimental": { "description": "LearnLM은 학습 과학 원칙에 맞춰 훈련된 실험적이고 특정 작업에 특화된 언어 모델로, 교육 및 학습 환경에서 시스템 지침을 따르며 전문가 멘토 역할을 수행합니다." }, @@ -1027,7 +1004,6 @@ "meta.llama3-8b-instruct-v1:0": { "description": "Meta Llama 3은 개발자, 연구자 및 기업을 위한 오픈 대형 언어 모델(LLM)로, 생성 AI 아이디어를 구축하고 실험하며 책임감 있게 확장하는 데 도움을 주기 위해 설계되었습니다. 전 세계 커뮤니티 혁신의 기초 시스템의 일환으로, 계산 능력과 자원이 제한된 환경, 엣지 장치 및 더 빠른 훈련 시간에 매우 적합합니다." }, - "microsoft/Phi-3.5-mini-instruct": {}, "microsoft/WizardLM-2-8x22B": { "description": "WizardLM 2는 Microsoft AI가 제공하는 언어 모델로, 복잡한 대화, 다국어, 추론 및 스마트 어시스턴트 분야에서 특히 뛰어난 성능을 보입니다." }, diff --git a/locales/ko-KR/providers.json b/locales/ko-KR/providers.json index 00aff3951ede..303489e498a6 100644 --- a/locales/ko-KR/providers.json +++ b/locales/ko-KR/providers.json @@ -1,5 +1,7 @@ { - "ai21": {}, + "ai21": { + "description": "AI21 Labs는 기업을 위해 기본 모델과 인공지능 시스템을 구축하여 생성적 인공지능의 생산적 활용을 가속화합니다." + }, "ai360": { "description": "360 AI는 360 회사가 출시한 AI 모델 및 서비스 플랫폼으로, 360GPT2 Pro, 360GPT Pro, 360GPT Turbo 및 360GPT Turbo Responsibility 8K를 포함한 다양한 고급 자연어 처리 모델을 제공합니다. 이러한 모델은 대규모 매개변수와 다중 모드 능력을 결합하여 텍스트 생성, 의미 이해, 대화 시스템 및 코드 생성 등 다양한 분야에 널리 사용됩니다. 유연한 가격 전략을 통해 360 AI는 다양한 사용자 요구를 충족하고 개발자가 통합할 수 있도록 지원하여 스마트화 응용 프로그램의 혁신과 발전을 촉진합니다." }, @@ -15,7 +17,9 @@ "bedrock": { "description": "Bedrock은 아마존 AWS가 제공하는 서비스로, 기업에 고급 AI 언어 모델과 비주얼 모델을 제공합니다. 그 모델 가족에는 Anthropic의 Claude 시리즈, Meta의 Llama 3.1 시리즈 등이 포함되어 있으며, 경량형부터 고성능까지 다양한 선택지를 제공하고 텍스트 생성, 대화, 이미지 처리 등 여러 작업을 지원하여 다양한 규모와 요구의 기업 응용 프로그램에 적합합니다." }, - "cloudflare": {}, + "cloudflare": { + "description": "Cloudflare의 글로벌 네트워크에서 서버리스 GPU로 구동되는 머신러닝 모델을 실행합니다." + }, "deepseek": { "description": "DeepSeek는 인공지능 기술 연구 및 응용에 집중하는 회사로, 최신 모델인 DeepSeek-V2.5는 일반 대화 및 코드 처리 능력을 통합하고 인간의 선호 정렬, 작문 작업 및 지시 따르기 등에서 상당한 향상을 이루었습니다." }, @@ -35,7 +39,7 @@ "description": "Groq의 LPU 추론 엔진은 최신 독립 대형 언어 모델(LLM) 벤치마크 테스트에서 뛰어난 성능을 보이며, 놀라운 속도와 효율성으로 AI 솔루션의 기준을 재정의하고 있습니다. Groq는 즉각적인 추론 속도의 대표주자로, 클라우드 기반 배포에서 우수한 성능을 보여줍니다." }, "higress": { - "description": "" + "description": "Higress는 클라우드 네이티브 API 게이트웨이로, 알리 내부에서 Tengine reload가 장기 연결 비즈니스에 미치는 영향을 해결하고 gRPC/Dubbo의 로드 밸런싱 능력이 부족한 문제를 해결하기 위해 탄생했습니다." }, "huggingface": { "description": "HuggingFace Inference API는 수천 개의 모델을 탐색할 수 있는 빠르고 무료의 방법을 제공합니다. 새로운 애플리케이션을 프로토타입 하거나 머신러닝의 기능을 시도하는 경우, 이 API는 여러 분야의 고성능 모델에 즉시 접근할 수 있게 해줍니다." @@ -73,7 +77,9 @@ "qwen": { "description": "통의천문은 알리바바 클라우드가 자주 개발한 초대형 언어 모델로, 강력한 자연어 이해 및 생성 능력을 갖추고 있습니다. 다양한 질문에 답변하고, 텍스트 콘텐츠를 창작하며, 의견을 표현하고, 코드를 작성하는 등 여러 분야에서 활용됩니다." }, - "sensenova": {}, + "sensenova": { + "description": "상탕의 일일 혁신은 상탕의 강력한 기반 지원을 바탕으로 효율적이고 사용하기 쉬운 전체 스택 대모델 서비스를 제공합니다." + }, "siliconcloud": { "description": "SiliconFlow는 AGI를 가속화하여 인류에 혜택을 주기 위해 사용하기 쉽고 비용이 저렴한 GenAI 스택을 통해 대규모 AI 효율성을 향상시키는 데 전념하고 있습니다." }, diff --git a/locales/nl-NL/models.json b/locales/nl-NL/models.json index 89ba6ebbe836..4a43a03a7be5 100644 --- a/locales/nl-NL/models.json +++ b/locales/nl-NL/models.json @@ -23,20 +23,6 @@ "4.0Ultra": { "description": "Spark4.0 Ultra is de krachtigste versie in de Spark-grootmodelserie, die de netwerkintegratie heeft geüpgraded en de tekstbegrip- en samenvattingscapaciteiten heeft verbeterd. Het is een allesomvattende oplossing voor het verbeteren van de kantoorproductiviteit en het nauwkeurig reageren op behoeften, en is een toonaangevend intelligent product in de industrie." }, - "@cf/meta/llama-3-8b-instruct-awq": {}, - "@cf/openchat/openchat-3.5-0106": {}, - "@cf/qwen/qwen1.5-14b-chat-awq": {}, - "@hf/google/gemma-7b-it": {}, - "@hf/meta-llama/meta-llama-3-8b-instruct": { - "description": "Generatie na generatie toont Meta Llama 3 state-of-the-art prestaties op een breed scala aan industriële benchmarks en biedt nieuwe mogelijkheden, waaronder verbeterd redeneren." - }, - "@hf/mistral/mistral-7b-instruct-v0.2": {}, - "@hf/nexusflow/starling-lm-7b-beta": {}, - "@hf/nousresearch/hermes-2-pro-mistral-7b": {}, - "@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {}, - "@hf/thebloke/neural-chat-7b-v3-1-awq": {}, - "@hf/thebloke/openhermes-2.5-mistral-7b-awq": {}, - "@hf/thebloke/zephyr-7b-beta-awq": {}, "Baichuan2-Turbo": { "description": "Maakt gebruik van zoekversterkingstechnologie om een uitgebreide koppeling tussen het grote model en domeinspecifieke kennis en wereldwijde kennis te realiseren. Ondersteunt het uploaden van verschillende documenten zoals PDF en Word, evenals URL-invoer, met tijdige en uitgebreide informatieverzameling en nauwkeurige, professionele output." }, @@ -127,7 +113,6 @@ "Nous-Hermes-2-Mixtral-8x7B-DPO": { "description": "Hermes 2 Mixtral 8x7B DPO is een zeer flexibele multi-model combinatie, ontworpen om een uitstekende creatieve ervaring te bieden." }, - "NousResearch/Hermes-3-Llama-3.1-8B": {}, "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": { "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) is een hoogprecisie instructiemodel, geschikt voor complexe berekeningen." }, @@ -530,9 +515,6 @@ "cohere-command-r-plus": { "description": "Command R+ is een state-of-the-art RAG-geoptimaliseerd model ontworpen om enterprise-grade workloads aan te pakken." }, - "command-light": { - "description": "" - }, "command-r": { "description": "Command R is geoptimaliseerd voor conversatie- en lange contexttaken, bijzonder geschikt voor dynamische interactie en kennisbeheer." }, @@ -794,9 +776,6 @@ "hunyuan-functioncall": { "description": "Het nieuwste MOE-architectuur FunctionCall-model van Hunyuan, getraind op hoogwaardige FunctionCall-gegevens, met een contextvenster van 32K, en staat voorop in meerdere dimensies van evaluatie-indicatoren." }, - "hunyuan-large": { - "description": "" - }, "hunyuan-lite": { "description": "Geüpgraded naar een MOE-structuur, met een contextvenster van 256k, en leidt in verschillende evaluatiesets op het gebied van NLP, code, wiskunde en industrie ten opzichte van vele open-source modellen." }, @@ -830,8 +809,6 @@ "internlm2.5-latest": { "description": "Onze nieuwste modelreeks met uitstekende redeneervaardigheden, ondersteunt een contextlengte van 1M en heeft verbeterde instructievolging en toolaanroepmogelijkheden." }, - "jamba-1.5-large": {}, - "jamba-1.5-mini": {}, "learnlm-1.5-pro-experimental": { "description": "LearnLM is een experimenteel, taak-specifiek taalmodel dat is getraind volgens de principes van de leerwetenschap, en kan systeeminstructies volgen in onderwijs- en leeromgevingen, en fungeert als een expertmentor." }, @@ -1027,7 +1004,6 @@ "meta.llama3-8b-instruct-v1:0": { "description": "Meta Llama 3 is een open groot taalmodel (LLM) gericht op ontwikkelaars, onderzoekers en bedrijven, ontworpen om hen te helpen bij het bouwen, experimenteren en verantwoordelijk opschalen van hun generatieve AI-ideeën. Als onderdeel van het basis systeem voor wereldwijde gemeenschapsinnovatie is het zeer geschikt voor apparaten met beperkte rekenkracht en middelen, edge-apparaten en snellere trainingstijden." }, - "microsoft/Phi-3.5-mini-instruct": {}, "microsoft/WizardLM-2-8x22B": { "description": "WizardLM 2 is een taalmodel van Microsoft AI dat uitblinkt in complexe gesprekken, meertaligheid, redenering en intelligente assistenttoepassingen." }, diff --git a/locales/nl-NL/providers.json b/locales/nl-NL/providers.json index ac07ca200013..d206d601da9a 100644 --- a/locales/nl-NL/providers.json +++ b/locales/nl-NL/providers.json @@ -1,5 +1,7 @@ { - "ai21": {}, + "ai21": { + "description": "AI21 Labs bouwt basismodellen en AI-systemen voor bedrijven, en versnelt de toepassing van generatieve AI in de productie." + }, "ai360": { "description": "360 AI is een AI-model- en serviceplatform gelanceerd door het bedrijf 360, dat verschillende geavanceerde modellen voor natuurlijke taalverwerking biedt, waaronder 360GPT2 Pro, 360GPT Pro, 360GPT Turbo en 360GPT Turbo Responsibility 8K. Deze modellen combineren grootschalige parameters en multimodale capaciteiten, en worden breed toegepast in tekstgeneratie, semantisch begrip, dialoogsystemen en codegeneratie. Met flexibele prijsstrategieën voldoet 360 AI aan diverse gebruikersbehoeften, ondersteunt het ontwikkelaars bij integratie en bevordert het de innovatie en ontwikkeling van intelligente toepassingen." }, @@ -15,7 +17,9 @@ "bedrock": { "description": "Bedrock is een dienst van Amazon AWS die zich richt op het bieden van geavanceerde AI-taalmodellen en visuele modellen voor bedrijven. De modellenfamilie omvat de Claude-serie van Anthropic, de Llama 3.1-serie van Meta, en meer, met opties variërend van lichtgewicht tot hoge prestaties, en ondersteunt tekstgeneratie, dialogen, beeldverwerking en meer, geschikt voor bedrijfsapplicaties van verschillende schalen en behoeften." }, - "cloudflare": {}, + "cloudflare": { + "description": "Voer machine learning-modellen aan, aangedreven door serverloze GPU's, uit op het wereldwijde netwerk van Cloudflare." + }, "deepseek": { "description": "DeepSeek is een bedrijf dat zich richt op onderzoek en toepassing van kunstmatige intelligentietechnologie, en hun nieuwste model DeepSeek-V2.5 combineert algemene dialoog- en codeverwerkingscapaciteiten, met significante verbeteringen in het afstemmen op menselijke voorkeuren, schrijfopdrachten en het volgen van instructies." }, @@ -35,7 +39,7 @@ "description": "De LPU-inferentie-engine van Groq presteert uitstekend in de nieuwste onafhankelijke benchmarktests voor grote taalmodellen (LLM), en herdefinieert de normen voor AI-oplossingen met zijn verbazingwekkende snelheid en efficiëntie. Groq is een vertegenwoordiger van onmiddellijke inferentiesnelheid en toont goede prestaties in cloudgebaseerde implementaties." }, "higress": { - "description": "" + "description": "Higress is een cloud-native API-gateway, ontwikkeld binnen Alibaba om de nadelige effecten van Tengine reload op langdurige verbindingen en de onvoldoende load balancing capaciteiten van gRPC/Dubbo aan te pakken." }, "huggingface": { "description": "HuggingFace Inference API biedt een snelle en gratis manier om duizenden modellen te verkennen voor verschillende taken. Of u nu prototypes voor nieuwe applicaties ontwerpt of de mogelijkheden van machine learning uitprobeert, deze API geeft u directe toegang tot hoogpresterende modellen in meerdere domeinen." @@ -73,7 +77,9 @@ "qwen": { "description": "Tongyi Qianwen is een door Alibaba Cloud zelf ontwikkeld grootschalig taalmodel met krachtige mogelijkheden voor natuurlijke taalbegrip en -generatie. Het kan verschillende vragen beantwoorden, tekstinhoud creëren, meningen uiten, code schrijven, en speelt een rol in verschillende domeinen." }, - "sensenova": {}, + "sensenova": { + "description": "SenseNova, ondersteund door de krachtige infrastructuur van SenseTime, biedt efficiënte en gebruiksvriendelijke full-stack modelservices." + }, "siliconcloud": { "description": "SiliconFlow streeft ernaar AGI te versnellen ten behoeve van de mensheid, door de efficiëntie van grootschalige AI te verbeteren met een gebruiksvriendelijke en kosteneffectieve GenAI-stack." }, diff --git a/locales/pl-PL/models.json b/locales/pl-PL/models.json index 7437875be4c3..c1eb1205f95a 100644 --- a/locales/pl-PL/models.json +++ b/locales/pl-PL/models.json @@ -23,20 +23,6 @@ "4.0Ultra": { "description": "Spark4.0 Ultra to najsilniejsza wersja w serii modeli Spark, która, oprócz ulepszonego łącza wyszukiwania w sieci, zwiększa zdolność rozumienia i podsumowywania treści tekstowych. Jest to kompleksowe rozwiązanie mające na celu zwiększenie wydajności biurowej i dokładne odpowiadanie na potrzeby, stanowiące inteligentny produkt wiodący w branży." }, - "@cf/meta/llama-3-8b-instruct-awq": {}, - "@cf/openchat/openchat-3.5-0106": {}, - "@cf/qwen/qwen1.5-14b-chat-awq": {}, - "@hf/google/gemma-7b-it": {}, - "@hf/meta-llama/meta-llama-3-8b-instruct": { - "description": "Generacja po generacji, Meta Llama 3 wykazuje najlepsze osiągi w szerokim zakresie benchmarków branżowych i oferuje nowe możliwości, w tym ulepszone rozumowanie." - }, - "@hf/mistral/mistral-7b-instruct-v0.2": {}, - "@hf/nexusflow/starling-lm-7b-beta": {}, - "@hf/nousresearch/hermes-2-pro-mistral-7b": {}, - "@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {}, - "@hf/thebloke/neural-chat-7b-v3-1-awq": {}, - "@hf/thebloke/openhermes-2.5-mistral-7b-awq": {}, - "@hf/thebloke/zephyr-7b-beta-awq": {}, "Baichuan2-Turbo": { "description": "Wykorzystuje technologię wzmacniania wyszukiwania, aby połączyć duży model z wiedzą branżową i wiedzą z całej sieci. Obsługuje przesyłanie różnych dokumentów, takich jak PDF, Word, oraz wprowadzanie adresów URL, zapewniając szybki i kompleksowy dostęp do informacji oraz dokładne i profesjonalne wyniki." }, @@ -127,7 +113,6 @@ "Nous-Hermes-2-Mixtral-8x7B-DPO": { "description": "Hermes 2 Mixtral 8x7B DPO to wysoce elastyczna fuzja wielu modeli, mająca na celu zapewnienie doskonałego doświadczenia twórczego." }, - "NousResearch/Hermes-3-Llama-3.1-8B": {}, "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": { "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) to model poleceń o wysokiej precyzji, idealny do złożonych obliczeń." }, @@ -530,9 +515,6 @@ "cohere-command-r-plus": { "description": "Command R+ to model zoptymalizowany pod kątem RAG, zaprojektowany do obsługi obciążeń roboczych na poziomie przedsiębiorstwa." }, - "command-light": { - "description": "" - }, "command-r": { "description": "Command R to LLM zoptymalizowany do dialogów i zadań z długim kontekstem, szczególnie odpowiedni do dynamicznej interakcji i zarządzania wiedzą." }, @@ -794,9 +776,6 @@ "hunyuan-functioncall": { "description": "Najnowocześniejszy model FunctionCall w architekturze MOE Hunyuan, przeszkolony na wysokiej jakości danych FunctionCall, z oknem kontekstowym o długości 32K, osiągający wiodące wyniki w wielu wymiarach oceny." }, - "hunyuan-large": { - "description": "" - }, "hunyuan-lite": { "description": "Zaktualizowana do struktury MOE, z oknem kontekstowym o długości 256k, prowadzi w wielu zestawach testowych w NLP, kodowaniu, matematyce i innych dziedzinach w porównaniu do wielu modeli open source." }, @@ -830,8 +809,6 @@ "internlm2.5-latest": { "description": "Nasza najnowsza seria modeli, charakteryzująca się doskonałymi osiągami wnioskowania, obsługująca długość kontekstu do 1M oraz lepsze możliwości śledzenia instrukcji i wywoływania narzędzi." }, - "jamba-1.5-large": {}, - "jamba-1.5-mini": {}, "learnlm-1.5-pro-experimental": { "description": "LearnLM to eksperymentalny model językowy, specyficzny dla zadań, przeszkolony zgodnie z zasadami nauki o uczeniu się, który może przestrzegać systemowych instrukcji w scenariuszach nauczania i uczenia się, pełniąc rolę eksperta mentora." }, @@ -1027,7 +1004,6 @@ "meta.llama3-8b-instruct-v1:0": { "description": "Meta Llama 3 to otwarty duży model językowy (LLM) skierowany do deweloperów, badaczy i przedsiębiorstw, mający na celu pomoc w budowaniu, eksperymentowaniu i odpowiedzialnym rozwijaniu ich pomysłów na generatywną sztuczną inteligencję. Jako część podstawowego systemu innowacji globalnej społeczności, jest idealny dla urządzeń o ograniczonej mocy obliczeniowej i zasobach, a także dla szybszego czasu szkolenia." }, - "microsoft/Phi-3.5-mini-instruct": {}, "microsoft/WizardLM-2-8x22B": { "description": "WizardLM 2 to model językowy oferowany przez Microsoft AI, który wyróżnia się w złożonych rozmowach, wielojęzyczności, wnioskowaniu i jako inteligentny asystent." }, diff --git a/locales/pl-PL/providers.json b/locales/pl-PL/providers.json index efdb5300b698..719a12c3cb8b 100644 --- a/locales/pl-PL/providers.json +++ b/locales/pl-PL/providers.json @@ -1,5 +1,7 @@ { - "ai21": {}, + "ai21": { + "description": "AI21 Labs buduje podstawowe modele i systemy sztucznej inteligencji dla przedsiębiorstw, przyspieszając zastosowanie generatywnej sztucznej inteligencji w produkcji." + }, "ai360": { "description": "360 AI to platforma modeli i usług AI wprowadzona przez firmę 360, oferująca różnorodne zaawansowane modele przetwarzania języka naturalnego, w tym 360GPT2 Pro, 360GPT Pro, 360GPT Turbo i 360GPT Turbo Responsibility 8K. Modele te łączą dużą liczbę parametrów z multimodalnymi zdolnościami, szeroko stosowanymi w generowaniu tekstu, rozumieniu semantycznym, systemach dialogowych i generowaniu kodu. Dzięki elastycznej strategii cenowej, 360 AI zaspokaja zróżnicowane potrzeby użytkowników, wspierając integrację przez deweloperów, co przyczynia się do innowacji i rozwoju aplikacji inteligentnych." }, @@ -15,7 +17,9 @@ "bedrock": { "description": "Bedrock to usługa oferowana przez Amazon AWS, skoncentrowana na dostarczaniu zaawansowanych modeli językowych i wizualnych dla przedsiębiorstw. Jej rodzina modeli obejmuje serię Claude od Anthropic, serię Llama 3.1 od Meta i inne, oferując różnorodne opcje od lekkich do wysokowydajnych, wspierając generowanie tekstu, dialogi, przetwarzanie obrazów i inne zadania, odpowiednie dla różnych skal i potrzeb aplikacji biznesowych." }, - "cloudflare": {}, + "cloudflare": { + "description": "Uruchamiaj modele uczenia maszynowego napędzane przez GPU w globalnej sieci Cloudflare." + }, "deepseek": { "description": "DeepSeek to firma skoncentrowana na badaniach i zastosowaniach technologii sztucznej inteligencji, której najnowszy model DeepSeek-V2.5 łączy zdolności do prowadzenia ogólnych rozmów i przetwarzania kodu, osiągając znaczące postępy w zakresie dostosowywania do preferencji ludzkich, zadań pisarskich i przestrzegania instrukcji." }, @@ -35,7 +39,7 @@ "description": "Silnik inferencyjny LPU firmy Groq wyróżnia się w najnowszych niezależnych testach benchmarkowych dużych modeli językowych (LLM), redefiniując standardy rozwiązań AI dzięki niesamowitej szybkości i wydajności. Groq jest reprezentantem natychmiastowej szybkości inferencji, wykazując dobrą wydajność w wdrożeniach opartych na chmurze." }, "higress": { - "description": "" + "description": "Higress to chmurowa brama API, która powstała w firmie Alibaba, aby rozwiązać problemy związane z ponownym ładowaniem Tengine, które negatywnie wpływa na długoterminowe połączenia, oraz niewystarczającą zdolnością do równoważenia obciążenia gRPC/Dubbo." }, "huggingface": { "description": "HuggingFace Inference API oferuje szybki i bezpłatny sposób na eksplorację tysięcy modeli, które nadają się do różnych zadań. Niezależnie od tego, czy prototypujesz nową aplikację, czy próbujesz funkcji uczenia maszynowego, to API zapewnia natychmiastowy dostęp do wysokowydajnych modeli z wielu dziedzin." @@ -73,7 +77,9 @@ "qwen": { "description": "Tongyi Qianwen to samodzielnie opracowany przez Alibaba Cloud model językowy o dużej skali, charakteryzujący się silnymi zdolnościami rozumienia i generowania języka naturalnego. Może odpowiadać na różnorodne pytania, tworzyć treści pisemne, wyrażać opinie, pisać kod i działać w wielu dziedzinach." }, - "sensenova": {}, + "sensenova": { + "description": "SenseTime codziennie się rozwija, opierając się na potężnym wsparciu infrastrukturalnym SenseTime, oferując wydajne i łatwe w użyciu usługi dużych modeli w pełnym zakresie." + }, "siliconcloud": { "description": "SiliconFlow dąży do przyspieszenia AGI, aby przynieść korzyści ludzkości, poprawiając wydajność dużych modeli AI dzięki łatwemu w użyciu i niskokosztowemu stosowi GenAI." }, diff --git a/locales/pt-BR/models.json b/locales/pt-BR/models.json index f0b1edc2ac1d..0147f7e5a6bd 100644 --- a/locales/pt-BR/models.json +++ b/locales/pt-BR/models.json @@ -23,20 +23,6 @@ "4.0Ultra": { "description": "Spark4.0 Ultra é a versão mais poderosa da série de grandes modelos Xinghuo, que, ao atualizar a conexão de busca online, melhora a capacidade de compreensão e resumo de conteúdo textual. É uma solução abrangente para aumentar a produtividade no trabalho e responder com precisão às demandas, sendo um produto inteligente líder na indústria." }, - "@cf/meta/llama-3-8b-instruct-awq": {}, - "@cf/openchat/openchat-3.5-0106": {}, - "@cf/qwen/qwen1.5-14b-chat-awq": {}, - "@hf/google/gemma-7b-it": {}, - "@hf/meta-llama/meta-llama-3-8b-instruct": { - "description": "Geração após geração, o Meta Llama 3 demonstra desempenho de ponta em uma ampla gama de benchmarks da indústria e oferece novas capacidades, incluindo raciocínio aprimorado." - }, - "@hf/mistral/mistral-7b-instruct-v0.2": {}, - "@hf/nexusflow/starling-lm-7b-beta": {}, - "@hf/nousresearch/hermes-2-pro-mistral-7b": {}, - "@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {}, - "@hf/thebloke/neural-chat-7b-v3-1-awq": {}, - "@hf/thebloke/openhermes-2.5-mistral-7b-awq": {}, - "@hf/thebloke/zephyr-7b-beta-awq": {}, "Baichuan2-Turbo": { "description": "Utiliza tecnologia de busca aprimorada para conectar completamente o grande modelo com conhecimento de domínio e conhecimento da web. Suporta upload de vários documentos, como PDF e Word, e entrada de URLs, garantindo acesso a informações de forma rápida e abrangente, com resultados precisos e profissionais." }, @@ -127,7 +113,6 @@ "Nous-Hermes-2-Mixtral-8x7B-DPO": { "description": "Hermes 2 Mixtral 8x7B DPO é uma fusão de múltiplos modelos altamente flexível, projetada para oferecer uma experiência criativa excepcional." }, - "NousResearch/Hermes-3-Llama-3.1-8B": {}, "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": { "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) é um modelo de instrução de alta precisão, adequado para cálculos complexos." }, @@ -530,9 +515,6 @@ "cohere-command-r-plus": { "description": "Command R+ é um modelo otimizado para RAG de última geração, projetado para lidar com cargas de trabalho de nível empresarial." }, - "command-light": { - "description": "" - }, "command-r": { "description": "Command R é um LLM otimizado para tarefas de diálogo e longos contextos, especialmente adequado para interações dinâmicas e gerenciamento de conhecimento." }, @@ -794,9 +776,6 @@ "hunyuan-functioncall": { "description": "O mais recente modelo FunctionCall da arquitetura MOE Hunyuan, treinado com dados de alta qualidade de FunctionCall, com uma janela de contexto de 32K, liderando em várias métricas de avaliação." }, - "hunyuan-large": { - "description": "" - }, "hunyuan-lite": { "description": "Atualizado para uma estrutura MOE, com uma janela de contexto de 256k, liderando em várias avaliações em NLP, código, matemática e setores diversos em comparação com muitos modelos de código aberto." }, @@ -830,8 +809,6 @@ "internlm2.5-latest": { "description": "Nossa mais recente série de modelos, com desempenho de raciocínio excepcional, suportando um comprimento de contexto de 1M e capacidades aprimoradas de seguimento de instruções e chamadas de ferramentas." }, - "jamba-1.5-large": {}, - "jamba-1.5-mini": {}, "learnlm-1.5-pro-experimental": { "description": "LearnLM é um modelo de linguagem experimental e específico para tarefas, treinado para atender aos princípios da ciência da aprendizagem, podendo seguir instruções sistemáticas em cenários de ensino e aprendizagem, atuando como um mentor especialista, entre outros." }, @@ -1027,7 +1004,6 @@ "meta.llama3-8b-instruct-v1:0": { "description": "Meta Llama 3 é um modelo de linguagem de grande escala (LLM) aberto voltado para desenvolvedores, pesquisadores e empresas, projetado para ajudá-los a construir, experimentar e expandir suas ideias de IA geradora de forma responsável. Como parte de um sistema de base para inovação da comunidade global, é ideal para dispositivos de borda com capacidade de computação e recursos limitados, além de tempos de treinamento mais rápidos." }, - "microsoft/Phi-3.5-mini-instruct": {}, "microsoft/WizardLM-2-8x22B": { "description": "WizardLM 2 é um modelo de linguagem fornecido pela Microsoft AI, que se destaca em diálogos complexos, multilíngue, raciocínio e assistentes inteligentes." }, diff --git a/locales/pt-BR/providers.json b/locales/pt-BR/providers.json index 03cec9f4ec1e..db2cfcb4b212 100644 --- a/locales/pt-BR/providers.json +++ b/locales/pt-BR/providers.json @@ -1,5 +1,7 @@ { - "ai21": {}, + "ai21": { + "description": "AI21 Labs constrói modelos fundamentais e sistemas de inteligência artificial para empresas, acelerando a aplicação da inteligência artificial generativa na produção." + }, "ai360": { "description": "360 AI é a plataforma de modelos e serviços de IA lançada pela empresa 360, oferecendo uma variedade de modelos avançados de processamento de linguagem natural, incluindo 360GPT2 Pro, 360GPT Pro, 360GPT Turbo e 360GPT Turbo Responsibility 8K. Esses modelos combinam grandes parâmetros e capacidades multimodais, sendo amplamente aplicados em geração de texto, compreensão semântica, sistemas de diálogo e geração de código. Com uma estratégia de preços flexível, a 360 AI atende a diversas necessidades dos usuários, apoiando a integração de desenvolvedores e promovendo a inovação e o desenvolvimento de aplicações inteligentes." }, @@ -15,7 +17,9 @@ "bedrock": { "description": "Bedrock é um serviço oferecido pela Amazon AWS, focado em fornecer modelos de linguagem e visão de IA avançados para empresas. Sua família de modelos inclui a série Claude da Anthropic, a série Llama 3.1 da Meta, entre outros, abrangendo uma variedade de opções, desde modelos leves até de alto desempenho, suportando geração de texto, diálogos, processamento de imagens e outras tarefas, adequando-se a aplicações empresariais de diferentes escalas e necessidades." }, - "cloudflare": {}, + "cloudflare": { + "description": "Execute modelos de aprendizado de máquina impulsionados por GPU sem servidor na rede global da Cloudflare." + }, "deepseek": { "description": "A DeepSeek é uma empresa focada em pesquisa e aplicação de tecnologia de inteligência artificial, cujo modelo mais recente, DeepSeek-V2.5, combina capacidades de diálogo geral e processamento de código, alcançando melhorias significativas em alinhamento com preferências humanas, tarefas de escrita e seguimento de instruções." }, @@ -35,7 +39,7 @@ "description": "O motor de inferência LPU da Groq se destacou em testes de benchmark independentes de modelos de linguagem de grande escala (LLM), redefinindo os padrões de soluções de IA com sua velocidade e eficiência impressionantes. A Groq representa uma velocidade de inferência em tempo real, demonstrando bom desempenho em implantações baseadas em nuvem." }, "higress": { - "description": "" + "description": "Higress é um gateway de API nativo da nuvem, criado internamente na Alibaba para resolver problemas de recarga do Tengine que afetam negócios de conexões longas, além de melhorar a capacidade de balanceamento de carga do gRPC/Dubbo." }, "huggingface": { "description": "A API de Inferência do HuggingFace oferece uma maneira rápida e gratuita de explorar milhares de modelos para diversas tarefas. Seja você um protótipo para um novo aplicativo ou tentando as funcionalidades de aprendizado de máquina, esta API permite acesso instantâneo a modelos de alto desempenho em múltiplas áreas." @@ -73,7 +77,9 @@ "qwen": { "description": "Qwen é um modelo de linguagem de grande escala desenvolvido pela Alibaba Cloud, com forte capacidade de compreensão e geração de linguagem natural. Ele pode responder a várias perguntas, criar conteúdo escrito, expressar opiniões e escrever código, atuando em vários campos." }, - "sensenova": {}, + "sensenova": { + "description": "A SenseTime oferece serviços de grandes modelos de pilha completa, aproveitando o forte suporte da infraestrutura da SenseTime." + }, "siliconcloud": { "description": "SiliconFlow se dedica a acelerar a AGI para beneficiar a humanidade, melhorando a eficiência da IA em larga escala por meio de uma pilha GenAI fácil de usar e de baixo custo." }, diff --git a/locales/ru-RU/models.json b/locales/ru-RU/models.json index dde6f191cb81..16190588131a 100644 --- a/locales/ru-RU/models.json +++ b/locales/ru-RU/models.json @@ -23,20 +23,6 @@ "4.0Ultra": { "description": "Spark4.0 Ultra — это самая мощная версия в серии больших моделей Xinghuo, которая, обновив сетевые поисковые связи, улучшает понимание и обобщение текстового контента. Это всестороннее решение для повышения производительности в офисе и точного реагирования на запросы, являющееся ведущим интеллектуальным продуктом в отрасли." }, - "@cf/meta/llama-3-8b-instruct-awq": {}, - "@cf/openchat/openchat-3.5-0106": {}, - "@cf/qwen/qwen1.5-14b-chat-awq": {}, - "@hf/google/gemma-7b-it": {}, - "@hf/meta-llama/meta-llama-3-8b-instruct": { - "description": "Поколение за поколением, Meta Llama 3 демонстрирует передовые результаты по широкому спектру отраслевых стандартов и предлагает новые возможности, включая улучшенное логическое мышление." - }, - "@hf/mistral/mistral-7b-instruct-v0.2": {}, - "@hf/nexusflow/starling-lm-7b-beta": {}, - "@hf/nousresearch/hermes-2-pro-mistral-7b": {}, - "@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {}, - "@hf/thebloke/neural-chat-7b-v3-1-awq": {}, - "@hf/thebloke/openhermes-2.5-mistral-7b-awq": {}, - "@hf/thebloke/zephyr-7b-beta-awq": {}, "Baichuan2-Turbo": { "description": "Использует технологии улучшенного поиска для полной связи между большой моделью и отраслевыми знаниями, а также знаниями из сети. Поддерживает загрузку различных документов, таких как PDF и Word, а также ввод URL, обеспечивая своевременное и полное получение информации с точными и профессиональными результатами." }, @@ -127,7 +113,6 @@ "Nous-Hermes-2-Mixtral-8x7B-DPO": { "description": "Hermes 2 Mixtral 8x7B DPO — это высокоадаптивная многомодельная комбинация, предназначенная для предоставления выдающегося творческого опыта." }, - "NousResearch/Hermes-3-Llama-3.1-8B": {}, "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": { "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) — это высокоточная модель команд, подходящая для сложных вычислений." }, @@ -530,9 +515,6 @@ "cohere-command-r-plus": { "description": "Command R+ — это модель, оптимизированная для RAG, предназначенная для решения задач корпоративного уровня." }, - "command-light": { - "description": "" - }, "command-r": { "description": "Command R — это LLM, оптимизированная для диалогов и задач с длинным контекстом, особенно подходит для динамического взаимодействия и управления знаниями." }, @@ -794,9 +776,6 @@ "hunyuan-functioncall": { "description": "Последняя модель Hunyuan с архитектурой MOE FunctionCall, обученная на высококачественных данных FunctionCall, с контекстным окном до 32K, занимает лидирующие позиции по множеству оценочных показателей." }, - "hunyuan-large": { - "description": "" - }, "hunyuan-lite": { "description": "Обновленная версия с MOE-структурой, контекстное окно составляет 256k, она опережает множество открытых моделей в оценках по NLP, коду, математике и другим областям." }, @@ -830,8 +809,6 @@ "internlm2.5-latest": { "description": "Наша последняя серия моделей с выдающимися показателями вывода, поддерживающая длину контекста до 1M и обладающая улучшенными возможностями следования инструкциям и вызова инструментов." }, - "jamba-1.5-large": {}, - "jamba-1.5-mini": {}, "learnlm-1.5-pro-experimental": { "description": "LearnLM — это экспериментальная языковая модель, ориентированная на конкретные задачи, обученная в соответствии с принципами науки о обучении, которая может следовать системным инструкциям в учебных и образовательных сценариях, выступая в роли эксперта-наставника и т.д." }, @@ -1027,7 +1004,6 @@ "meta.llama3-8b-instruct-v1:0": { "description": "Meta Llama 3 — это открытая большая языковая модель (LLM), ориентированная на разработчиков, исследователей и предприятия, предназначенная для помощи в создании, экспериментировании и ответственном масштабировании их идей по генеративному ИИ. В качестве части базовой системы для инноваций глобального сообщества она идеально подходит для устройств с ограниченными вычислительными мощностями и ресурсами, а также для более быстрого времени обучения." }, - "microsoft/Phi-3.5-mini-instruct": {}, "microsoft/WizardLM-2-8x22B": { "description": "WizardLM 2 — это языковая модель от Microsoft AI, которая особенно хорошо справляется с сложными диалогами, многоязычностью, выводами и интеллектуальными помощниками." }, diff --git a/locales/ru-RU/providers.json b/locales/ru-RU/providers.json index 49bc63651e82..fd99f05b94b4 100644 --- a/locales/ru-RU/providers.json +++ b/locales/ru-RU/providers.json @@ -1,5 +1,7 @@ { - "ai21": {}, + "ai21": { + "description": "AI21 Labs создает базовые модели и системы искусственного интеллекта для бизнеса, ускоряя внедрение генеративного ИИ в производстве." + }, "ai360": { "description": "360 AI — это платформа AI-моделей и услуг, запущенная компанией 360, предлагающая множество передовых моделей обработки естественного языка, включая 360GPT2 Pro, 360GPT Pro, 360GPT Turbo и 360GPT Turbo Responsibility 8K. Эти модели сочетают в себе масштабные параметры и мультимодальные возможности, широко применяются в генерации текста, семантическом понимании, диалоговых системах и генерации кода. Благодаря гибкой ценовой политике 360 AI удовлетворяет разнообразные потребности пользователей, поддерживает интеграцию разработчиков и способствует инновациям и развитию интеллектуальных приложений." }, @@ -15,7 +17,9 @@ "bedrock": { "description": "Bedrock — это сервис, предоставляемый Amazon AWS, сосредоточенный на предоставлении предприятиям передовых AI-языковых и визуальных моделей. Его семейство моделей включает серию Claude от Anthropic, серию Llama 3.1 от Meta и другие, охватывающие широкий спектр от легковесных до высокопроизводительных решений, поддерживающих текстовую генерацию, диалоги, обработку изображений и другие задачи, подходящие для предприятий различного масштаба и потребностей." }, - "cloudflare": {}, + "cloudflare": { + "description": "Запуск моделей машинного обучения на базе серверов GPU в глобальной сети Cloudflare." + }, "deepseek": { "description": "DeepSeek — это компания, сосредоточенная на исследованиях и применении технологий искусственного интеллекта, ее последняя модель DeepSeek-V2.5 объединяет возможности общего диалога и обработки кода, достигнув значительных улучшений в области согласования с человеческими предпочтениями, написания текстов и выполнения инструкций." }, @@ -35,7 +39,7 @@ "description": "Инженерный движок LPU от Groq показал выдающиеся результаты в последних независимых бенчмарках больших языковых моделей (LLM), переопределяя стандарты AI-решений благодаря своей удивительной скорости и эффективности. Groq представляет собой образец мгновенной скорости вывода, демонстрируя хорошие результаты в облачных развертываниях." }, "higress": { - "description": "" + "description": "Higress — это облачный API шлюз, который был разработан внутри Alibaba для решения проблем, связанных с перезагрузкой Tengine, негативно влияющей на долгосрочные соединения, а также недостаточной способностью балансировки нагрузки для gRPC/Dubbo." }, "huggingface": { "description": "API для инференса HuggingFace предоставляет быстрый и бесплатный способ исследовать тысячи моделей для различных задач. Независимо от того, разрабатываете ли вы прототип для нового приложения или пробуете возможности машинного обучения, этот API обеспечивает мгновенный доступ к высокопроизводительным моделям в различных областях." @@ -73,7 +77,9 @@ "qwen": { "description": "Qwen — это сверхбольшая языковая модель, разработанная Alibaba Cloud, обладающая мощными возможностями понимания и генерации естественного языка. Она может отвечать на различные вопросы, создавать текстовый контент, выражать мнения и писать код, играя важную роль в различных областях." }, - "sensenova": {}, + "sensenova": { + "description": "SenseNova, опираясь на мощную инфраструктуру SenseTime, предлагает эффективные и удобные услуги полного стека больших моделей." + }, "siliconcloud": { "description": "SiliconFlow стремится ускорить AGI, чтобы принести пользу человечеству, повышая эффективность масштабного AI с помощью простого и экономичного стека GenAI." }, diff --git a/locales/tr-TR/models.json b/locales/tr-TR/models.json index 48a4b34c8fdd..1131c6339a17 100644 --- a/locales/tr-TR/models.json +++ b/locales/tr-TR/models.json @@ -23,20 +23,6 @@ "4.0Ultra": { "description": "Spark4.0 Ultra, Xinghuo büyük model serisinin en güçlü versiyonudur, çevrimiçi arama bağlantısını yükseltirken, metin içeriğini anlama ve özetleme yeteneğini artırır. Ofis verimliliğini artırmak ve taleplere doğru yanıt vermek için kapsamlı bir çözüm sunar, sektördeki akıllı ürünlerin öncüsüdür." }, - "@cf/meta/llama-3-8b-instruct-awq": {}, - "@cf/openchat/openchat-3.5-0106": {}, - "@cf/qwen/qwen1.5-14b-chat-awq": {}, - "@hf/google/gemma-7b-it": {}, - "@hf/meta-llama/meta-llama-3-8b-instruct": { - "description": "Nesil nesil, Meta Llama 3, geniş bir endüstri ölçütleri yelpazesinde en son performansı sergilemekte ve geliştirilmiş akıl yürütme gibi yeni yetenekler sunmaktadır." - }, - "@hf/mistral/mistral-7b-instruct-v0.2": {}, - "@hf/nexusflow/starling-lm-7b-beta": {}, - "@hf/nousresearch/hermes-2-pro-mistral-7b": {}, - "@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {}, - "@hf/thebloke/neural-chat-7b-v3-1-awq": {}, - "@hf/thebloke/openhermes-2.5-mistral-7b-awq": {}, - "@hf/thebloke/zephyr-7b-beta-awq": {}, "Baichuan2-Turbo": { "description": "Arama artırma teknolojisi kullanarak büyük model ile alan bilgisi ve tüm ağ bilgisi arasında kapsamlı bir bağlantı sağlar. PDF, Word gibi çeşitli belge yüklemelerini ve URL girişini destekler, bilgi edinimi zamanında ve kapsamlıdır, çıktı sonuçları doğru ve profesyoneldir." }, @@ -127,7 +113,6 @@ "Nous-Hermes-2-Mixtral-8x7B-DPO": { "description": "Hermes 2 Mixtral 8x7B DPO, olağanüstü yaratıcı deneyimler sunmak için tasarlanmış son derece esnek bir çoklu model birleşimidir." }, - "NousResearch/Hermes-3-Llama-3.1-8B": {}, "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": { "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B), karmaşık hesaplamalar için yüksek hassasiyetli bir talimat modelidir." }, @@ -530,9 +515,6 @@ "cohere-command-r-plus": { "description": "Command R+, kurumsal düzeyde iş yüklerini ele almak için tasarlanmış en son RAG optimize edilmiş bir modeldir." }, - "command-light": { - "description": "" - }, "command-r": { "description": "Command R, diyalog ve uzun bağlam görevleri için optimize edilmiş bir LLM'dir, dinamik etkileşim ve bilgi yönetimi için özellikle uygundur." }, @@ -794,9 +776,6 @@ "hunyuan-functioncall": { "description": "Hunyuan'ın en son MOE mimarisi FunctionCall modeli, yüksek kaliteli FunctionCall verisi ile eğitilmiş olup, bağlam penceresi 32K'ya ulaşmıştır ve birçok boyutta değerlendirme göstergelerinde lider konumdadır." }, - "hunyuan-large": { - "description": "" - }, "hunyuan-lite": { "description": "MOE yapısına yükseltilmiş, bağlam penceresi 256k, NLP, kod, matematik, endüstri gibi birçok değerlendirme setinde birçok açık kaynak modelden önde." }, @@ -830,8 +809,6 @@ "internlm2.5-latest": { "description": "En son model serimiz, olağanüstü çıkarım performansına sahiptir, 1M bağlam uzunluğunu destekler ve daha güçlü talimat takibi ve araç çağırma yetenekleri sunar." }, - "jamba-1.5-large": {}, - "jamba-1.5-mini": {}, "learnlm-1.5-pro-experimental": { "description": "LearnLM, öğrenme bilimleri ilkelerine uygun olarak eğitilmiş, görev odaklı deneysel bir dil modelidir. Eğitim ve öğrenim senaryolarında sistem talimatlarını takip edebilir ve uzman bir mentor olarak görev alabilir." }, @@ -1027,7 +1004,6 @@ "meta.llama3-8b-instruct-v1:0": { "description": "Meta Llama 3, geliştiriciler, araştırmacılar ve işletmeler için açık bir büyük dil modelidir (LLM) ve onların üretken AI fikirlerini inşa etmelerine, denemelerine ve sorumlu bir şekilde genişletmelerine yardımcı olmak için tasarlanmıştır. Küresel topluluk yeniliğinin temel sistemlerinden biri olarak, sınırlı hesaplama gücü ve kaynaklara sahip, kenar cihazları ve daha hızlı eğitim süreleri için son derece uygundur." }, - "microsoft/Phi-3.5-mini-instruct": {}, "microsoft/WizardLM-2-8x22B": { "description": "WizardLM 2, Microsoft AI tarafından sağlanan bir dil modelidir ve karmaşık diyaloglar, çok dilli destek, akıl yürütme ve akıllı asistan alanlarında özellikle başarılıdır." }, diff --git a/locales/tr-TR/providers.json b/locales/tr-TR/providers.json index 6f8a070bf07f..a1ecbc339b15 100644 --- a/locales/tr-TR/providers.json +++ b/locales/tr-TR/providers.json @@ -1,5 +1,7 @@ { - "ai21": {}, + "ai21": { + "description": "AI21 Labs, işletmeler için temel modeller ve yapay zeka sistemleri geliştirerek, üretimde jeneratif yapay zekanın uygulanmasını hızlandırır." + }, "ai360": { "description": "360 AI, 360 şirketi tarafından sunulan yapay zeka modeli ve hizmet platformudur. 360GPT2 Pro, 360GPT Pro, 360GPT Turbo ve 360GPT Turbo Responsibility 8K gibi çeşitli gelişmiş doğal dil işleme modelleri sunmaktadır. Bu modeller, büyük ölçekli parametreler ve çok modlu yetenekleri birleştirerek metin üretimi, anlamsal anlama, diyalog sistemleri ve kod üretimi gibi alanlarda geniş bir uygulama yelpazesine sahiptir. Esnek fiyatlandırma stratejileri ile 360 AI, çeşitli kullanıcı ihtiyaçlarını karşılamakta ve geliştiricilerin entegrasyonunu destekleyerek akıllı uygulamaların yenilik ve gelişimini teşvik etmektedir." }, @@ -15,7 +17,9 @@ "bedrock": { "description": "Bedrock, Amazon AWS tarafından sunulan bir hizmettir ve işletmelere gelişmiş yapay zeka dil modelleri ve görsel modeller sağlamaya odaklanmaktadır. Model ailesi, Anthropic'in Claude serisi, Meta'nın Llama 3.1 serisi gibi seçenekleri içermekte olup, metin üretimi, diyalog, görüntü işleme gibi çeşitli görevleri desteklemektedir. Farklı ölçek ve ihtiyaçlara uygun kurumsal uygulamalar için geniş bir yelpaze sunmaktadır." }, - "cloudflare": {}, + "cloudflare": { + "description": "Cloudflare'ın küresel ağı üzerinde sunucusuz GPU destekli makine öğrenimi modelleri çalıştırın." + }, "deepseek": { "description": "DeepSeek, yapay zeka teknolojisi araştırma ve uygulamalarına odaklanan bir şirkettir. En son modeli DeepSeek-V2.5, genel diyalog ve kod işleme yeteneklerini birleştirerek, insan tercihleriyle uyum, yazma görevleri ve talimat takibi gibi alanlarda önemli iyileştirmeler sağlamaktadır." }, @@ -35,7 +39,7 @@ "description": "Groq'un LPU çıkarım motoru, en son bağımsız büyük dil modeli (LLM) benchmark testlerinde mükemmel performans sergilemekte ve olağanüstü hız ve verimliliği ile yapay zeka çözümlerinin standartlarını yeniden tanımlamaktadır. Groq, bulut tabanlı dağıtımlarda iyi bir performans sergileyen anlık çıkarım hızının temsilcisidir." }, "higress": { - "description": "" + "description": "Higress, uzun süreli bağlantı işlerine zarar veren Tengine yeniden yükleme sorununu ve gRPC/Dubbo yük dengeleme yeteneklerinin yetersizliğini çözmek için Alibaba içinde geliştirilmiş bir bulut yerel API geçididir." }, "huggingface": { "description": "HuggingFace Inference API, binlerce modeli keşfetmenin hızlı ve ücretsiz bir yolunu sunar, çeşitli görevler için uygundur. Yeni uygulamalar için prototip oluşturuyor ya da makine öğreniminin yeteneklerini deniyorsanız, bu API size birçok alanda yüksek performanslı modellere anında erişim sağlar." @@ -73,7 +77,9 @@ "qwen": { "description": "Tongyi Qianwen, Alibaba Cloud tarafından geliştirilen büyük ölçekli bir dil modelidir ve güçlü doğal dil anlama ve üretme yeteneklerine sahiptir. Çeşitli soruları yanıtlayabilir, metin içeriği oluşturabilir, görüşlerini ifade edebilir ve kod yazabilir. Birçok alanda etkili bir şekilde kullanılmaktadır." }, - "sensenova": {}, + "sensenova": { + "description": "SenseTime, güçlü altyapısına dayanarak, verimli ve kullanımı kolay tam yığın büyük model hizmetleri sunar." + }, "siliconcloud": { "description": "SiliconFlow, insanlığa fayda sağlamak amacıyla AGI'yi hızlandırmaya odaklanmakta ve kullanıcı dostu ve maliyet etkin GenAI yığınları ile büyük ölçekli yapay zeka verimliliğini artırmayı hedeflemektedir." }, diff --git a/locales/vi-VN/models.json b/locales/vi-VN/models.json index 6edc3b802400..6fe1d1f5048c 100644 --- a/locales/vi-VN/models.json +++ b/locales/vi-VN/models.json @@ -23,20 +23,6 @@ "4.0Ultra": { "description": "Spark4.0 Ultra là phiên bản mạnh mẽ nhất trong dòng mô hình lớn Xinghuo, nâng cao khả năng hiểu và tóm tắt nội dung văn bản trong khi nâng cấp liên kết tìm kiếm trực tuyến. Đây là giải pháp toàn diện nhằm nâng cao năng suất văn phòng và đáp ứng chính xác nhu cầu, là sản phẩm thông minh dẫn đầu ngành." }, - "@cf/meta/llama-3-8b-instruct-awq": {}, - "@cf/openchat/openchat-3.5-0106": {}, - "@cf/qwen/qwen1.5-14b-chat-awq": {}, - "@hf/google/gemma-7b-it": {}, - "@hf/meta-llama/meta-llama-3-8b-instruct": { - "description": "Generation over generation, Meta Llama 3 demonstrates state-of-the-art performance on a wide range of industry benchmarks and offers new capabilities, including improved reasoning." - }, - "@hf/mistral/mistral-7b-instruct-v0.2": {}, - "@hf/nexusflow/starling-lm-7b-beta": {}, - "@hf/nousresearch/hermes-2-pro-mistral-7b": {}, - "@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {}, - "@hf/thebloke/neural-chat-7b-v3-1-awq": {}, - "@hf/thebloke/openhermes-2.5-mistral-7b-awq": {}, - "@hf/thebloke/zephyr-7b-beta-awq": {}, "Baichuan2-Turbo": { "description": "Sử dụng công nghệ tăng cường tìm kiếm để kết nối toàn diện giữa mô hình lớn và kiến thức lĩnh vực, kiến thức toàn cầu. Hỗ trợ tải lên nhiều loại tài liệu như PDF, Word và nhập URL, thông tin được thu thập kịp thời và toàn diện, kết quả đầu ra chính xác và chuyên nghiệp." }, @@ -127,7 +113,6 @@ "Nous-Hermes-2-Mixtral-8x7B-DPO": { "description": "Hermes 2 Mixtral 8x7B DPO là một mô hình kết hợp đa dạng, nhằm cung cấp trải nghiệm sáng tạo xuất sắc." }, - "NousResearch/Hermes-3-Llama-3.1-8B": {}, "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": { "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) là mô hình chỉ dẫn chính xác cao, phù hợp cho tính toán phức tạp." }, @@ -530,9 +515,6 @@ "cohere-command-r-plus": { "description": "Command R+ là mô hình tối ưu hóa RAG hiện đại, được thiết kế để xử lý khối lượng công việc cấp doanh nghiệp." }, - "command-light": { - "description": "" - }, "command-r": { "description": "Command R là LLM được tối ưu hóa cho các nhiệm vụ đối thoại và ngữ cảnh dài, đặc biệt phù hợp cho tương tác động và quản lý kiến thức." }, @@ -794,9 +776,6 @@ "hunyuan-functioncall": { "description": "Mô hình FunctionCall với cấu trúc MOE mới nhất của Hunyuan, được huấn luyện trên dữ liệu FunctionCall chất lượng cao, với cửa sổ ngữ cảnh đạt 32K, dẫn đầu trong nhiều chỉ số đánh giá." }, - "hunyuan-large": { - "description": "" - }, "hunyuan-lite": { "description": "Nâng cấp lên cấu trúc MOE, với cửa sổ ngữ cảnh 256k, dẫn đầu nhiều mô hình mã nguồn mở trong các bộ đánh giá NLP, mã, toán học, ngành nghề, v.v." }, @@ -830,8 +809,6 @@ "internlm2.5-latest": { "description": "Dòng mô hình mới nhất của chúng tôi, có hiệu suất suy luận xuất sắc, hỗ trợ độ dài ngữ cảnh 1M và khả năng theo dõi chỉ dẫn và gọi công cụ mạnh mẽ hơn." }, - "jamba-1.5-large": {}, - "jamba-1.5-mini": {}, "learnlm-1.5-pro-experimental": { "description": "LearnLM là một mô hình ngôn ngữ thử nghiệm, chuyên biệt cho các nhiệm vụ, được đào tạo để tuân theo các nguyên tắc khoa học học tập, có thể tuân theo các chỉ dẫn hệ thống trong các tình huống giảng dạy và học tập, đóng vai trò như một người hướng dẫn chuyên gia." }, @@ -1027,7 +1004,6 @@ "meta.llama3-8b-instruct-v1:0": { "description": "Meta Llama 3 là một mô hình ngôn ngữ lớn (LLM) mở dành cho các nhà phát triển, nhà nghiên cứu và doanh nghiệp, nhằm giúp họ xây dựng, thử nghiệm và mở rộng ý tưởng AI sinh một cách có trách nhiệm. Là một phần của hệ thống cơ sở hạ tầng đổi mới toàn cầu, nó rất phù hợp cho các thiết bị biên và thời gian huấn luyện nhanh hơn với khả năng tính toán và tài nguyên hạn chế." }, - "microsoft/Phi-3.5-mini-instruct": {}, "microsoft/WizardLM-2-8x22B": { "description": "WizardLM 2 là mô hình ngôn ngữ do AI của Microsoft cung cấp, thể hiện xuất sắc trong các lĩnh vực đối thoại phức tạp, đa ngôn ngữ, suy luận và trợ lý thông minh." }, diff --git a/locales/vi-VN/providers.json b/locales/vi-VN/providers.json index 3b0db32822e9..ad77598444e8 100644 --- a/locales/vi-VN/providers.json +++ b/locales/vi-VN/providers.json @@ -1,5 +1,7 @@ { - "ai21": {}, + "ai21": { + "description": "AI21 Labs xây dựng các mô hình cơ bản và hệ thống trí tuệ nhân tạo cho doanh nghiệp, tăng tốc ứng dụng trí tuệ nhân tạo sinh sinh trong sản xuất." + }, "ai360": { "description": "360 AI là nền tảng mô hình và dịch vụ AI do công ty 360 phát hành, cung cấp nhiều mô hình xử lý ngôn ngữ tự nhiên tiên tiến, bao gồm 360GPT2 Pro, 360GPT Pro, 360GPT Turbo và 360GPT Turbo Responsibility 8K. Những mô hình này kết hợp giữa tham số quy mô lớn và khả năng đa phương thức, được ứng dụng rộng rãi trong tạo văn bản, hiểu ngữ nghĩa, hệ thống đối thoại và tạo mã. Thông qua chiến lược giá linh hoạt, 360 AI đáp ứng nhu cầu đa dạng của người dùng, hỗ trợ nhà phát triển tích hợp, thúc đẩy sự đổi mới và phát triển ứng dụng thông minh." }, @@ -15,7 +17,9 @@ "bedrock": { "description": "Bedrock là dịch vụ do Amazon AWS cung cấp, tập trung vào việc cung cấp các mô hình ngôn ngữ AI và mô hình hình ảnh tiên tiến cho doanh nghiệp. Gia đình mô hình của nó bao gồm dòng Claude của Anthropic, dòng Llama 3.1 của Meta, v.v., bao quát nhiều lựa chọn từ nhẹ đến hiệu suất cao, hỗ trợ nhiều nhiệm vụ như tạo văn bản, đối thoại, xử lý hình ảnh, phù hợp cho các ứng dụng doanh nghiệp với quy mô và nhu cầu khác nhau." }, - "cloudflare": {}, + "cloudflare": { + "description": "Chạy các mô hình học máy được hỗ trợ bởi GPU không máy chủ trên mạng lưới toàn cầu của Cloudflare." + }, "deepseek": { "description": "DeepSeek là một công ty tập trung vào nghiên cứu và ứng dụng công nghệ trí tuệ nhân tạo, mô hình mới nhất của họ, DeepSeek-V2.5, kết hợp khả năng đối thoại chung và xử lý mã, đồng thời đạt được sự cải thiện đáng kể trong việc căn chỉnh sở thích của con người, nhiệm vụ viết và tuân theo chỉ dẫn." }, @@ -35,7 +39,7 @@ "description": "Bộ máy suy diễn LPU của Groq thể hiện xuất sắc trong các bài kiểm tra chuẩn mô hình ngôn ngữ lớn (LLM) độc lập mới nhất, định nghĩa lại tiêu chuẩn cho các giải pháp AI với tốc độ và hiệu quả đáng kinh ngạc. Groq là đại diện cho tốc độ suy diễn tức thì, thể hiện hiệu suất tốt trong triển khai dựa trên đám mây." }, "higress": { - "description": "" + "description": "Higress là một cổng API gốc đám mây, được phát triển trong nội bộ của Alibaba để giải quyết vấn đề Tengine reload ảnh hưởng đến các dịch vụ kết nối dài hạn, cũng như khả năng cân bằng tải gRPC/Dubbo chưa đủ." }, "huggingface": { "description": "HuggingFace Inference API cung cấp một cách nhanh chóng và miễn phí để bạn khám phá hàng ngàn mô hình cho nhiều nhiệm vụ khác nhau. Dù bạn đang thiết kế nguyên mẫu cho một ứng dụng mới hay đang thử nghiệm khả năng của học máy, API này cho phép bạn truy cập ngay lập tức vào các mô hình hiệu suất cao trong nhiều lĩnh vực." @@ -73,7 +77,9 @@ "qwen": { "description": "Qwen là mô hình ngôn ngữ quy mô lớn tự phát triển của Alibaba Cloud, có khả năng hiểu và tạo ngôn ngữ tự nhiên mạnh mẽ. Nó có thể trả lời nhiều câu hỏi, sáng tác nội dung văn bản, bày tỏ quan điểm, viết mã, v.v., hoạt động trong nhiều lĩnh vực." }, - "sensenova": {}, + "sensenova": { + "description": "SenseTime luôn đổi mới, dựa vào nền tảng mạnh mẽ của SenseTime để cung cấp dịch vụ mô hình lớn toàn diện, hiệu quả và dễ sử dụng." + }, "siliconcloud": { "description": "SiliconFlow cam kết tăng tốc AGI để mang lại lợi ích cho nhân loại, nâng cao hiệu quả AI quy mô lớn thông qua một ngăn xếp GenAI dễ sử dụng và chi phí thấp." }, diff --git a/locales/zh-CN/models.json b/locales/zh-CN/models.json index f2301a152a16..3c4be7d085e5 100644 --- a/locales/zh-CN/models.json +++ b/locales/zh-CN/models.json @@ -23,20 +23,6 @@ "4.0Ultra": { "description": "Spark Ultra 是星火大模型系列中最为强大的版本,在升级联网搜索链路同时,提升对文本内容的理解和总结能力。它是用于提升办公生产力和准确响应需求的全方位解决方案,是引领行业的智能产品。" }, - "@cf/meta/llama-3-8b-instruct-awq": {}, - "@cf/openchat/openchat-3.5-0106": {}, - "@cf/qwen/qwen1.5-14b-chat-awq": {}, - "@hf/google/gemma-7b-it": {}, - "@hf/meta-llama/meta-llama-3-8b-instruct": { - "description": "Generation over generation, Meta Llama 3 demonstrates state-of-the-art performance on a wide range of industry benchmarks and offers new capabilities, including improved reasoning.\t" - }, - "@hf/mistral/mistral-7b-instruct-v0.2": {}, - "@hf/nexusflow/starling-lm-7b-beta": {}, - "@hf/nousresearch/hermes-2-pro-mistral-7b": {}, - "@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {}, - "@hf/thebloke/neural-chat-7b-v3-1-awq": {}, - "@hf/thebloke/openhermes-2.5-mistral-7b-awq": {}, - "@hf/thebloke/zephyr-7b-beta-awq": {}, "Baichuan2-Turbo": { "description": "采用搜索增强技术实现大模型与领域知识、全网知识的全面链接。支持PDF、Word等多种文档上传及网址输入,信息获取及时、全面,输出结果准确、专业。" }, @@ -50,10 +36,10 @@ "description": "模型能力国内第一,在知识百科、长文本、生成创作等中文任务上超越国外主流模型。还具备行业领先的多模态能力,多项权威评测基准表现优异。" }, "Baichuan4-Air": { - "description": "" + "description": "模型能力国内第一,在知识百科、长文本、生成创作等中文任务上超越国外主流模型。还具备行业领先的多模态能力,多项权威评测基准表现优异。" }, "Baichuan4-Turbo": { - "description": "" + "description": "模型能力国内第一,在知识百科、长文本、生成创作等中文任务上超越国外主流模型。还具备行业领先的多模态能力,多项权威评测基准表现优异。" }, "Doubao-lite-128k": { "description": "Doubao-lite 拥有极致的响应速度,更好的性价比,为客户不同场景提供更灵活的选择。支持128k上下文窗口的推理和精调。" @@ -127,7 +113,6 @@ "Nous-Hermes-2-Mixtral-8x7B-DPO": { "description": "Hermes 2 Mixtral 8x7B DPO 是一款高度灵活的多模型合并,旨在提供卓越的创造性体验。" }, - "NousResearch/Hermes-3-Llama-3.1-8B": {}, "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": { "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) 是高精度的指令模型,适用于复杂计算。" }, @@ -530,14 +515,11 @@ "cohere-command-r-plus": { "description": "Command R+是一个最先进的RAG优化模型,旨在应对企业级工作负载。" }, - "command-light": { - "description": "" - }, "command-r": { - "description": "" + "description": "Command R 是优化用于对话和长上下文任务的LLM,特别适合动态交互与知识管理。" }, "command-r-plus": { - "description": "" + "description": "Command R+ 是一款高性能的大型语言模型,专为真实企业场景和复杂应用而设计。" }, "databricks/dbrx-instruct": { "description": "DBRX Instruct 提供高可靠性的指令处理能力,支持多行业应用。" @@ -794,9 +776,6 @@ "hunyuan-functioncall": { "description": "混元最新 MOE 架构 FunctionCall 模型,经过高质量的 FunctionCall 数据训练,上下文窗口达 32K,在多个维度的评测指标上处于领先。" }, - "hunyuan-large": { - "description": "" - }, "hunyuan-lite": { "description": "升级为 MOE 结构,上下文窗口为 256k ,在 NLP,代码,数学,行业等多项评测集上领先众多开源模型。" }, @@ -830,8 +809,6 @@ "internlm2.5-latest": { "description": "我们最新的模型系列,有着卓越的推理性能,支持 1M 的上下文长度以及更强的指令跟随和工具调用能力。" }, - "jamba-1.5-large": {}, - "jamba-1.5-mini": {}, "learnlm-1.5-pro-experimental": { "description": "LearnLM 是一个实验性的、特定于任务的语言模型,经过训练以符合学习科学原则,可在教学和学习场景中遵循系统指令,充当专家导师等。" }, @@ -1027,7 +1004,6 @@ "meta.llama3-8b-instruct-v1:0": { "description": "Meta Llama 3 是一款面向开发者、研究人员和企业的开放大型语言模型 (LLM),旨在帮助他们构建、实验并负责任地扩展他们的生成 AI 想法。作为全球社区创新的基础系统的一部分,它非常适合计算能力和资源有限、边缘设备和更快的训练时间。" }, - "microsoft/Phi-3.5-mini-instruct": {}, "microsoft/WizardLM-2-8x22B": { "description": "WizardLM 2 是微软AI提供的语言模型,在复杂对话、多语言、推理和智能助手领域表现尤为出色。" }, diff --git a/locales/zh-CN/providers.json b/locales/zh-CN/providers.json index d82b951b0cb5..581aba4cde20 100644 --- a/locales/zh-CN/providers.json +++ b/locales/zh-CN/providers.json @@ -1,5 +1,7 @@ { - "ai21": {}, + "ai21": { + "description": "AI21 Labs 为企业构建基础模型和人工智能系统,加速生成性人工智能在生产中的应用。" + }, "ai360": { "description": "360 AI 是 360 公司推出的 AI 模型和服务平台,提供多种先进的自然语言处理模型,包括 360GPT2 Pro、360GPT Pro、360GPT Turbo 和 360GPT Turbo Responsibility 8K。这些模型结合了大规模参数和多模态能力,广泛应用于文本生成、语义理解、对话系统与代码生成等领域。通过灵活的定价策略,360 AI 满足多样化用户需求,支持开发者集成,推动智能化应用的革新和发展。" }, @@ -15,7 +17,9 @@ "bedrock": { "description": "Bedrock 是亚马逊 AWS 提供的一项服务,专注于为企业提供先进的 AI 语言模型和视觉模型。其模型家族包括 Anthropic 的 Claude 系列、Meta 的 Llama 3.1 系列等,涵盖从轻量级到高性能的多种选择,支持文本生成、对话、图像处理等多种任务,适用于不同规模和需求的企业应用。" }, - "cloudflare": {}, + "cloudflare": { + "description": "在 Cloudflare 的全球网络上运行由无服务器 GPU 驱动的机器学习模型。" + }, "deepseek": { "description": "DeepSeek 是一家专注于人工智能技术研究和应用的公司,其最新模型 DeepSeek-V2.5 融合了通用对话和代码处理能力,并在人类偏好对齐、写作任务和指令跟随等方面实现了显著提升。" }, @@ -35,7 +39,7 @@ "description": "Groq 的 LPU 推理引擎在最新的独立大语言模型(LLM)基准测试中表现卓越,以其惊人的速度和效率重新定义了 AI 解决方案的标准。Groq 是一种即时推理速度的代表,在基于云的部署中展现了良好的性能。" }, "higress": { - "description": "" + "description": "Higress 是一款云原生 API 网关,在阿里内部为解决 Tengine reload 对长连接业务有损,以及 gRPC/Dubbo 负载均衡能力不足而诞生。" }, "huggingface": { "description": "HuggingFace Inference API 提供了一种快速且免费的方式,让您可以探索成千上万种模型,适用于各种任务。无论您是在为新应用程序进行原型设计,还是在尝试机器学习的功能,这个 API 都能让您即时访问多个领域的高性能模型。" @@ -73,7 +77,9 @@ "qwen": { "description": "通义千问是阿里云自主研发的超大规模语言模型,具有强大的自然语言理解和生成能力。它可以回答各种问题、创作文字内容、表达观点看法、撰写代码等,在多个领域发挥作用。" }, - "sensenova": {}, + "sensenova": { + "description": "商汤日日新,依托商汤大装置的强大的基础支撑,提供高效易用的全栈大模型服务。" + }, "siliconcloud": { "description": "SiliconCloud,基于优秀开源基础模型的高性价比 GenAI 云服务" }, diff --git a/locales/zh-TW/models.json b/locales/zh-TW/models.json index ffe3336b89c4..d124c852073b 100644 --- a/locales/zh-TW/models.json +++ b/locales/zh-TW/models.json @@ -23,20 +23,6 @@ "4.0Ultra": { "description": "Spark4.0 Ultra 是星火大模型系列中最為強大的版本,在升級聯網搜索鏈路同時,提升對文本內容的理解和總結能力。它是用於提升辦公生產力和準確響應需求的全方位解決方案,是引領行業的智能產品。" }, - "@cf/meta/llama-3-8b-instruct-awq": {}, - "@cf/openchat/openchat-3.5-0106": {}, - "@cf/qwen/qwen1.5-14b-chat-awq": {}, - "@hf/google/gemma-7b-it": {}, - "@hf/meta-llama/meta-llama-3-8b-instruct": { - "description": "Generation over generation, Meta Llama 3 demonstrates state-of-the-art performance on a wide range of industry benchmarks and offers new capabilities, including improved reasoning." - }, - "@hf/mistral/mistral-7b-instruct-v0.2": {}, - "@hf/nexusflow/starling-lm-7b-beta": {}, - "@hf/nousresearch/hermes-2-pro-mistral-7b": {}, - "@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {}, - "@hf/thebloke/neural-chat-7b-v3-1-awq": {}, - "@hf/thebloke/openhermes-2.5-mistral-7b-awq": {}, - "@hf/thebloke/zephyr-7b-beta-awq": {}, "Baichuan2-Turbo": { "description": "採用搜索增強技術實現大模型與領域知識、全網知識的全面連結。支持PDF、Word等多種文檔上傳及網址輸入,信息獲取及時、全面,輸出結果準確、專業。" }, @@ -127,7 +113,6 @@ "Nous-Hermes-2-Mixtral-8x7B-DPO": { "description": "Hermes 2 Mixtral 8x7B DPO 是一款高度靈活的多模型合併,旨在提供卓越的創造性體驗。" }, - "NousResearch/Hermes-3-Llama-3.1-8B": {}, "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": { "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) 是高精度的指令模型,適用於複雜計算。" }, @@ -530,9 +515,6 @@ "cohere-command-r-plus": { "description": "Command R+是一個最先進的RAG優化模型,旨在應對企業級工作負載。" }, - "command-light": { - "description": "" - }, "command-r": { "description": "Command R 是優化用於對話和長上下文任務的 LLM,特別適合動態交互與知識管理。" }, @@ -794,9 +776,6 @@ "hunyuan-functioncall": { "description": "混元最新 MOE 架構 FunctionCall 模型,經過高質量的 FunctionCall 數據訓練,上下文窗口達 32K,在多個維度的評測指標上處於領先。" }, - "hunyuan-large": { - "description": "" - }, "hunyuan-lite": { "description": "升級為 MOE 結構,上下文窗口為 256k,在 NLP、代碼、數學、行業等多項評測集上領先眾多開源模型。" }, @@ -830,8 +809,6 @@ "internlm2.5-latest": { "description": "我們最新的模型系列,有著卓越的推理性能,支持 1M 的上下文長度以及更強的指令跟隨和工具調用能力。" }, - "jamba-1.5-large": {}, - "jamba-1.5-mini": {}, "learnlm-1.5-pro-experimental": { "description": "LearnLM 是一個實驗性的、特定於任務的語言模型,經過訓練以符合學習科學原則,可在教學和學習場景中遵循系統指令,充當專家導師等。" }, @@ -1027,7 +1004,6 @@ "meta.llama3-8b-instruct-v1:0": { "description": "Meta Llama 3 是一款面向開發者、研究人員和企業的開放大型語言模型 (LLM),旨在幫助他們構建、實驗並負責任地擴展他們的生成 AI 想法。作為全球社區創新的基礎系統的一部分,它非常適合計算能力和資源有限、邊緣設備和更快的訓練時間。" }, - "microsoft/Phi-3.5-mini-instruct": {}, "microsoft/WizardLM-2-8x22B": { "description": "WizardLM 2 是微軟AI提供的語言模型,在複雜對話、多語言、推理和智能助手領域表現尤為出色。" }, diff --git a/locales/zh-TW/providers.json b/locales/zh-TW/providers.json index cf47460f133a..7803cda4fa73 100644 --- a/locales/zh-TW/providers.json +++ b/locales/zh-TW/providers.json @@ -1,5 +1,7 @@ { - "ai21": {}, + "ai21": { + "description": "AI21 Labs 為企業構建基礎模型和人工智慧系統,加速生成性人工智慧在生產中的應用。" + }, "ai360": { "description": "360 AI 是 360 公司推出的 AI 模型和服務平台,提供多種先進的自然語言處理模型,包括 360GPT2 Pro、360GPT Pro、360GPT Turbo 和 360GPT Turbo Responsibility 8K。這些模型結合了大規模參數和多模態能力,廣泛應用於文本生成、語義理解、對話系統與代碼生成等領域。通過靈活的定價策略,360 AI 滿足多樣化用戶需求,支持開發者集成,推動智能化應用的革新和發展。" }, @@ -15,7 +17,9 @@ "bedrock": { "description": "Bedrock 是亞馬遜 AWS 提供的一項服務,專注於為企業提供先進的 AI 語言模型和視覺模型。其模型家族包括 Anthropic 的 Claude 系列、Meta 的 Llama 3.1 系列等,涵蓋從輕量級到高性能的多種選擇,支持文本生成、對話、圖像處理等多種任務,適用於不同規模和需求的企業應用。" }, - "cloudflare": {}, + "cloudflare": { + "description": "在 Cloudflare 的全球網絡上運行由無伺服器 GPU 驅動的機器學習模型。" + }, "deepseek": { "description": "DeepSeek 是一家專注於人工智慧技術研究和應用的公司,其最新模型 DeepSeek-V2.5 融合了通用對話和代碼處理能力,並在人類偏好對齊、寫作任務和指令跟隨等方面實現了顯著提升。" }, @@ -35,7 +39,7 @@ "description": "Groq 的 LPU 推理引擎在最新的獨立大語言模型(LLM)基準測試中表現卓越,以其驚人的速度和效率重新定義了 AI 解決方案的標準。Groq 是一種即時推理速度的代表,在基於雲的部署中展現了良好的性能。" }, "higress": { - "description": "" + "description": "Higress 是一款雲原生 API 網關,為了解決 Tengine reload 對長連接業務的影響,以及 gRPC/Dubbo 負載均衡能力不足而在阿里內部誕生。" }, "huggingface": { "description": "HuggingFace Inference API 提供了一種快速且免費的方式,讓您可以探索成千上萬種模型,適用於各種任務。無論您是在為新應用程式進行原型設計,還是在嘗試機器學習的功能,這個 API 都能讓您即時訪問多個領域的高性能模型。" @@ -73,7 +77,9 @@ "qwen": { "description": "通義千問是阿里雲自主研發的超大規模語言模型,具有強大的自然語言理解和生成能力。它可以回答各種問題、創作文字內容、表達觀點看法、撰寫代碼等,在多個領域發揮作用。" }, - "sensenova": {}, + "sensenova": { + "description": "商湯日日新,依托商湯大裝置的強大基礎支撐,提供高效易用的全棧大模型服務。" + }, "siliconcloud": { "description": "SiliconFlow 致力於加速 AGI,以惠及人類,通過易用與成本低的 GenAI 堆疊提升大規模 AI 效率。" }, diff --git a/scripts/readmeWorkflow/const.ts b/scripts/readmeWorkflow/const.ts index 054443c8a337..ab82e00a217f 100644 --- a/scripts/readmeWorkflow/const.ts +++ b/scripts/readmeWorkflow/const.ts @@ -1,3 +1,9 @@ +import { resolve } from 'node:path'; + +import { DEFAULT_MODEL_PROVIDER_LIST } from '@/config/modelProviders'; + +export const root = resolve(__dirname, '../..'); + export interface DataItem { author: string; createdAt: string; @@ -6,14 +12,22 @@ export interface DataItem { meta: { avatar: string; description: string; tags: string[]; title: string }; } -export const MARKET_URL = 'https://chat-preview.lobehub.com/market'; -export const PLGUIN_URL = 'https://chat-preview.lobehub.com/settings/agent'; -export const AGENT_EN_URL = 'https://chat-agents.lobehub.com/index.json'; -export const AGENT_CN_URL = 'https://chat-agents.lobehub.com/index.zh-CN.json'; -export const AGENT_REPO = 'https://github.com/lobehub/lobe-chat-agents'; -export const PLUGIN_EN_URL = 'https://chat-plugins.lobehub.com/index.json'; -export const PLUGIN_CN_URL = 'https://chat-plugins.lobehub.com/index.zh-CN.json'; -export const PLUGIN_REPO = 'https://github.com/lobehub/lobe-chat-plugins'; +export const AGENT_URL = 'https://chat-agents.lobehub.com/index.json'; +export const AGENT_I18N_URL = (lang: string) => + `https://chat-agents.lobehub.com/index.${lang}.json`; +export const PLUGIN_URL = 'https://chat-plugins.lobehub.com/index.json'; +export const PLUGIN_I18N_URL = (lang: string) => + `https://chat-plugins.lobehub.com/index.${lang}.json`; export const AGENT_SPLIT = ''; export const PLUGIN_SPLIT = ''; +export const PROVIDER_SPLIT = ''; + +export const PROVIDER_LIST = DEFAULT_MODEL_PROVIDER_LIST.filter( + (item) => item.chatModels.length > 0 && item.id !== 'lobehub', +).map((item) => { + return { + id: item.id, + name: item.name, + }; +}); diff --git a/scripts/readmeWorkflow/index.ts b/scripts/readmeWorkflow/index.ts index 2fdcbcdb6ee6..d2339bdc0a66 100644 --- a/scripts/readmeWorkflow/index.ts +++ b/scripts/readmeWorkflow/index.ts @@ -2,9 +2,11 @@ import { consola } from 'consola'; import syncAgentIndex from './syncAgentIndex'; import syncPluginIndex from './syncPluginIndex'; +import syncProviderIndex from './syncProviderIndex'; const runSync = async () => { consola.start('Start sync readme workflow...'); + await syncProviderIndex(); await syncAgentIndex(); await syncPluginIndex(); }; diff --git a/scripts/readmeWorkflow/syncAgentIndex.ts b/scripts/readmeWorkflow/syncAgentIndex.ts index 7dcc8c1004d2..a46422adea8f 100644 --- a/scripts/readmeWorkflow/syncAgentIndex.ts +++ b/scripts/readmeWorkflow/syncAgentIndex.ts @@ -1,47 +1,55 @@ import { consola } from 'consola'; import { markdownTable } from 'markdown-table'; -import qs from 'query-string'; +import urlJoin from 'url-join'; -import { AGENT_REPO, AGENT_SPLIT, DataItem, MARKET_URL } from './const'; -import { fetchAgentIndex, genLink, genTags, readReadme, updateReadme, writeReadme } from './utlis'; +import { AGENT_SPLIT, DataItem } from './const'; +import { + fetchAgentIndex, + genLink, + genTags, + getTitle, + readReadme, + updateReadme, + writeReadme, +} from './utlis'; -const genAgentTable = (data: DataItem[], lang: string) => { - const isCN = lang === 'zh-CN'; - const content = data.slice(0, 4).map((item) => [ - [ - genLink( - item.meta.title.replaceAll('|', ','), - qs.stringifyUrl({ - query: { agent: item.identifier }, - url: MARKET_URL, - }), - ), - `By **${genLink(item.author, item.homepage)}** on **${(item as any).createAt}**`, - ].join('
'), - [item.meta.description.replaceAll('|', ','), genTags(item.meta.tags)].join('
'), - ]); - return markdownTable([ - isCN ? ['最近新增', '助手说明'] : ['Recent Submits', 'Description'], - ...content, - ]); +const genAgentTable = (data: DataItem[], lang?: string) => { + const title = getTitle(lang); + + const content = data + .slice(0, 4) + .map((item) => [ + [ + genLink( + item.meta.title.replaceAll('|', ','), + urlJoin('https://lobechat.com/discover/assistant', item.identifier), + ), + `By **${genLink(item.author, item.homepage)}** on **${(item as any).createdAt}**`, + ].join('
'), + [item.meta.description.replaceAll('|', ','), genTags(item.meta.tags)].join('
'), + ]); + + return markdownTable([title, ...content]); }; -const runAgentTable = async (lang: string) => { +const runAgentTable = async (lang?: string) => { const data = await fetchAgentIndex(lang); const md = readReadme(lang); const mdTable = genAgentTable(data, lang); const newMd = updateReadme( AGENT_SPLIT, md, - [mdTable, `> 📊 Total agents: ${genLink(`**${data.length}** `, AGENT_REPO)}`].join( - '\n\n', - ), + [ + mdTable, + `> 📊 Total agents: ${genLink(`**${data.length}** `, 'https://lobechat.com/discover/assistants')}`, + ].join('\n\n'), ); writeReadme(newMd, lang); - consola.success('Sync agent index success!'); + consola.success(`Sync ${lang || 'en-US'} agent index success!`); }; export default async () => { - await runAgentTable('en-US'); + await runAgentTable(); await runAgentTable('zh-CN'); + await runAgentTable('ja-JP'); }; diff --git a/scripts/readmeWorkflow/syncPluginIndex.ts b/scripts/readmeWorkflow/syncPluginIndex.ts index b659fb6bcf79..53a35ce25067 100644 --- a/scripts/readmeWorkflow/syncPluginIndex.ts +++ b/scripts/readmeWorkflow/syncPluginIndex.ts @@ -1,42 +1,55 @@ import { consola } from 'consola'; import { markdownTable } from 'markdown-table'; +import urlJoin from 'url-join'; -import { DataItem, PLGUIN_URL, PLUGIN_REPO, PLUGIN_SPLIT } from './const'; -import { fetchPluginIndex, genLink, genTags, readReadme, updateReadme, writeReadme } from './utlis'; +import { DataItem, PLUGIN_SPLIT } from './const'; +import { + fetchPluginIndex, + genLink, + genTags, + getTitle, + readReadme, + updateReadme, + writeReadme, +} from './utlis'; + +const genPluginTable = (data: DataItem[], lang?: string) => { + const title = getTitle(lang); -const genPluginTable = (data: DataItem[], lang: string) => { - const isCN = lang === 'zh-CN'; const content = data .slice(0, 4) .map((item) => [ [ - genLink(item.meta.title.replaceAll('|', ','), PLGUIN_URL), + genLink( + item.meta.title.replaceAll('|', ','), + urlJoin('https://lobechat.com/discover/plugin', item.identifier), + ), `By **${item.author}** on **${item.createdAt}**`, ].join('
'), [item.meta.description.replaceAll('|', ','), genTags(item.meta.tags)].join('
'), ]); - return markdownTable([ - isCN ? ['最近新增', '插件描述'] : ['Recent Submits', 'Description'], - ...content, - ]); + + return markdownTable([title, ...content]); }; -const runPluginTable = async (lang: string) => { +const runPluginTable = async (lang?: string) => { const data = await fetchPluginIndex(lang); const md = readReadme(lang); const mdTable = genPluginTable(data, lang); const newMd = updateReadme( PLUGIN_SPLIT, md, - [mdTable, `> 📊 Total plugins: ${genLink(`**${data.length}**`, PLUGIN_REPO)}`].join( - '\n\n', - ), + [ + mdTable, + `> 📊 Total plugins: ${genLink(`**${data.length}**`, 'https://lobechat.com/discover/plugins')}`, + ].join('\n\n'), ); writeReadme(newMd, lang); - consola.success('Sync plugin index success!'); + consola.success(`Sync ${lang || 'en-US'} plugin index success!`); }; export default async () => { - await runPluginTable('en-US'); + await runPluginTable(); await runPluginTable('zh-CN'); + await runPluginTable('ja-JP'); }; diff --git a/scripts/readmeWorkflow/syncProviderIndex.ts b/scripts/readmeWorkflow/syncProviderIndex.ts new file mode 100644 index 000000000000..c9f789d404aa --- /dev/null +++ b/scripts/readmeWorkflow/syncProviderIndex.ts @@ -0,0 +1,51 @@ +import { consola } from 'consola'; +import { readJSONSync } from 'fs-extra'; +import { resolve } from 'node:path'; +import urlJoin from 'url-join'; + +import { PROVIDER_LIST, PROVIDER_SPLIT, root } from './const'; +import { genLink, readReadme, updateReadme, writeReadme } from './utlis'; + +const genProviderTable = (data: { desc?: string; id: string; name: string }) => { + const title = genLink(data.name, urlJoin('https://lobechat.com/discover/provider', data.id)); + + return ['-', `**${title}**:`, data.desc].join(' '); +}; + +const runProviderTable = async (lang?: string) => { + const md = readReadme(lang); + const desc = readJSONSync(resolve(root, 'locales', lang || 'en-US', 'providers.json')); + const newMd = updateReadme( + PROVIDER_SPLIT, + md, + [ + PROVIDER_LIST.slice(0, 10) + .map((item) => + genProviderTable({ + ...item, + desc: desc?.[item.id]?.description, + }), + ) + .join('\n'), + `
See more providers (+${PROVIDER_LIST.length - 10})`, + PROVIDER_LIST.slice(10, PROVIDER_LIST.length) + .map((item) => + genProviderTable({ + ...item, + desc: desc?.[item.id]?.description, + }), + ) + .join('\n'), + '
', + `> 📊 Total providers: ${genLink(`**${PROVIDER_LIST.length}**`, 'https://lobechat.com/discover/providers')}`, + ].join('\n\n'), + ); + writeReadme(newMd, lang); + consola.success(`Sync ${lang || 'en-US'} provider index success!`); +}; + +export default async () => { + await runProviderTable(); + await runProviderTable('zh-CN'); + await runProviderTable('ja-JP'); +}; diff --git a/scripts/readmeWorkflow/utlis.ts b/scripts/readmeWorkflow/utlis.ts index 11cd322e20f8..49ea5843e9bc 100644 --- a/scripts/readmeWorkflow/utlis.ts +++ b/scripts/readmeWorkflow/utlis.ts @@ -2,23 +2,21 @@ import { kebabCase } from 'lodash'; import { readFileSync, writeFileSync } from 'node:fs'; import { resolve } from 'node:path'; -import { AGENT_CN_URL, AGENT_EN_URL, PLUGIN_CN_URL, PLUGIN_EN_URL } from './const'; +import { AGENT_I18N_URL, AGENT_URL, PLUGIN_I18N_URL, PLUGIN_URL, root } from './const'; const fetchIndex = async (url: string) => { const res = await fetch(url); return await res.json(); }; -export const fetchAgentIndex = async (lang: string) => { - const isCN = lang === 'zh-CN'; - const url = isCN ? AGENT_CN_URL : AGENT_EN_URL; +export const fetchAgentIndex = async (lang?: string) => { + const url = lang ? AGENT_I18N_URL(lang) : AGENT_URL; const data = await fetchIndex(url); return data.agents; }; -export const fetchPluginIndex = async (lang: string) => { - const isCN = lang === 'zh-CN'; - const url = isCN ? PLUGIN_CN_URL : PLUGIN_EN_URL; +export const fetchPluginIndex = async (lang?: string) => { + const url = lang ? PLUGIN_I18N_URL(lang) : PLUGIN_URL; const data = await fetchIndex(url); return data.plugins; }; @@ -31,16 +29,15 @@ export const genTags = (tags: string[]) => .map((tag) => `\`${kebabCase(tag)}\``) .join(' '); -const getReadmePath = (lang: string) => { - const isCN = lang === 'zh-CN'; - return resolve(__dirname, '../../', isCN ? `./README.zh-CN.md` : `./README.md`); +const getReadmePath = (lang?: string) => { + return resolve(root, lang ? `./README.${lang}.md` : `./README.md`); }; -export const readReadme = (lang: string): string => { +export const readReadme = (lang?: string): string => { return readFileSync(getReadmePath(lang), 'utf8'); }; -export const writeReadme = (content: string, lang: string) => { +export const writeReadme = (content: string, lang?: string) => { writeFileSync(getReadmePath(lang), content, 'utf8'); }; @@ -50,3 +47,17 @@ export const updateReadme = (split: string, md: string, content: string): string return mds.join(split); }; + +export const getTitle = (lang?: string) => { + switch (lang) { + case 'zh-CN': { + return ['最近新增', '描述']; + } + case 'ja-JP': { + return ['最近追加', '説明']; + } + default: { + return ['Recent Submits', 'Description']; + } + } +}; diff --git a/src/config/modelProviders/ai21.ts b/src/config/modelProviders/ai21.ts index 809f2b28b2b5..2ac3ac912252 100644 --- a/src/config/modelProviders/ai21.ts +++ b/src/config/modelProviders/ai21.ts @@ -27,6 +27,7 @@ const Ai21: ModelProviderCard = { }, ], checkModel: 'jamba-1.5-mini', + description: 'AI21 Labs 为企业构建基础模型和人工智能系统,加速生成性人工智能在生产中的应用。', id: 'ai21', modelList: { showModelFetcher: true }, modelsUrl: 'https://docs.ai21.com/reference', diff --git a/src/config/modelProviders/cloudflare.ts b/src/config/modelProviders/cloudflare.ts index b1d260d0f45f..2db437c5e393 100644 --- a/src/config/modelProviders/cloudflare.ts +++ b/src/config/modelProviders/cloudflare.ts @@ -69,8 +69,6 @@ const Cloudflare: ModelProviderCard = { tokens: 32_768, }, { - description: - 'Generation over generation, Meta Llama 3 demonstrates state-of-the-art performance on a wide range of industry benchmarks and offers new capabilities, including improved reasoning.\t', displayName: 'meta-llama-3-8b-instruct', enabled: true, functionCall: false, @@ -78,6 +76,7 @@ const Cloudflare: ModelProviderCard = { }, ], checkModel: '@hf/meta-llama/meta-llama-3-8b-instruct', + description: '在 Cloudflare 的全球网络上运行由无服务器 GPU 驱动的机器学习模型。', disableBrowserRequest: true, id: 'cloudflare', modelList: { diff --git a/src/config/modelProviders/higress.ts b/src/config/modelProviders/higress.ts index 790e77d28653..a3b208d31c27 100644 --- a/src/config/modelProviders/higress.ts +++ b/src/config/modelProviders/higress.ts @@ -2464,7 +2464,8 @@ const Higress: ModelProviderCard = { }, ], checkModel: 'qwen-max', - description: '', + description: + 'Higress 是一款云原生 API 网关,在阿里内部为解决 Tengine reload 对长连接业务有损,以及 gRPC/Dubbo 负载均衡能力不足而诞生。', id: 'higress', modelList: { showModelFetcher: true }, modelsUrl: 'https://higress.cn/', diff --git a/src/config/modelProviders/sensenova.ts b/src/config/modelProviders/sensenova.ts index 5030214d854e..ebfb3f29dd37 100644 --- a/src/config/modelProviders/sensenova.ts +++ b/src/config/modelProviders/sensenova.ts @@ -5,7 +5,8 @@ import { ModelProviderCard } from '@/types/llm'; const SenseNova: ModelProviderCard = { chatModels: [ { - description: '最新版本模型 (V5.5),128K上下文长度,在数学推理、英文对话、指令跟随以及长文本理解等领域能力显著提升,比肩GPT-4o', + description: + '最新版本模型 (V5.5),128K上下文长度,在数学推理、英文对话、指令跟随以及长文本理解等领域能力显著提升,比肩GPT-4o', displayName: 'SenseChat 5.5', enabled: true, functionCall: true, @@ -17,7 +18,7 @@ const SenseNova: ModelProviderCard = { }, tokens: 131_072, }, -/* + /* // Not compatible with local mode (Not support Base64 Image) { description: '最新版本模型 (V5.5),16K上下文长度,支持多图的输入,全面实现模型基础能力优化,在对象属性识别、空间关系、动作事件识别、场景理解、情感识别、逻辑常识推理和文本理解生成上都实现了较大提升。', @@ -46,7 +47,8 @@ const SenseNova: ModelProviderCard = { tokens: 32_768, }, { - description: '32K上下文长度,在粤语的对话理解上超越了GPT-4,在知识、推理、数学及代码编写等多个领域均能与GPT-4 Turbo相媲美', + description: + '32K上下文长度,在粤语的对话理解上超越了GPT-4,在知识、推理、数学及代码编写等多个领域均能与GPT-4 Turbo相媲美', displayName: 'SenseChat 5.0 Cantonese', id: 'SenseChat-5-Cantonese', pricing: { @@ -116,6 +118,7 @@ const SenseNova: ModelProviderCard = { }, ], checkModel: 'SenseChat-Turbo', + description: '商汤日日新,依托商汤大装置的强大的基础支撑,提供高效易用的全栈大模型服务。', disableBrowserRequest: true, id: 'sensenova', modelList: { showModelFetcher: true }, diff --git a/src/locales/default/models.ts b/src/locales/default/models.ts index d9ae2bf8f6e7..35b9a7ec0230 100644 --- a/src/locales/default/models.ts +++ b/src/locales/default/models.ts @@ -7,6 +7,7 @@ const locales: { } = {}; LOBE_DEFAULT_MODEL_LIST.flat().forEach((model) => { + if (!model.description) return; locales[model.id] = { description: model.description, }; diff --git a/src/locales/default/providers.ts b/src/locales/default/providers.ts index 9d0c8718c8aa..5c97f28da786 100644 --- a/src/locales/default/providers.ts +++ b/src/locales/default/providers.ts @@ -7,6 +7,7 @@ const locales: { } = {}; DEFAULT_MODEL_PROVIDER_LIST.forEach((provider) => { + if (!provider.description) return; locales[provider.id] = { description: provider.description, };