产品

SiliconCloud,高性价比的GenAI云服务

基于优秀的开源基础模型

企业级全场景模型服务
MaaS

基于优秀开源模型的云端推理服务

01.

对话

SiliconCloud 基于高品质的大语言模型,提供包括Qwen、DeepSeek等在内的多样化服务,为用户带来极速流畅的模型访问体验。

02.

图片生成

03.

更多

企业级模型微调与部署

专为大模型微调与托管打造的一站式服务平台。通过该平台,用户可以快速、无缝地将自定义模型部署为服务,并根据自己上传的数据进行模型微调。

模型微调到模型部署全链路支持

数据上传

构建合适的数据集并上传,用于创建微调作业。数据集由单个JSONL文件组成,其中每行都是一个单独的训练数据。

Step.01→

模型微调

选择合适的数据集,调整相关参数,训练特定的模型以提高模型效果,满足定制化需求。

Step.02→

效果评估

上传评测数据集,对训练好的模型进行效果评估,选出效果最优的微调模型进行部署。

Step.03→

模型部署

在云平台上部署微调后的模型,通过API接口调用。

Step.04

高性能、弹性、易用
引擎赋能,模型推理显著提速

大语言模型时间延迟最高降低2.7倍

Max Concurrent Requsets

文生图推理速度最快提升3倍

Image 1024*1024, batch size, steps 30, on A100 80GB SXM4

End2End Time (sec)

按需自动缩扩容,降低总拥有成本

1.

创建包含SiliconFlow实例集合的自动缩扩容组。

2.

指定所需的容量和自动扩展策略。

3.

指定该组中实例数的最大最小值。

4.

创建成功,平台将按需自动调整服务规模,确保在负载高峰时快速扩展实例,负载减少时缩减资源。

简单易用

from openai import OpenAI


client = OpenAI(api_key="YOUR_API_KEY", base_url="https://api.siliconflow.cn/v1")

response = client.chat.completions.create(

model='deepseek-ai/DeepSeek-V2.5',

messages=[

{'role': 'user',

'content': "SiliconCloud推出分层速率方案与免费模型RPM提升10倍,对于整个大模型应用领域带来哪些改变?"}

],

stream=True

)


for chunk in response:

print(chunk.choices[0].delta.content, end='')

模型推理

只需数行代码,开发者即可快速使用SiliconCloud的快速模型服务。

模型部署

·


上传模型服务描述,获取模型服务 API。

·


根据负载自动缩扩容,保持资源最优化。

·

平台根据配置提供加速效果评估,用户按需选择是否加速。

服务模式

无服务器部署

专为开发者打造

高性能推理,速度领先

丰富模型,多场景覆盖

按需付费,按词元计费

分级速率限制

按需实例服务

适合于初创企业场景

企业定制策略,吞吐或速度优先

自定义模型,满足企业个性化需求

独立资源推理,稳定服务

企业定制速率限制

预留实例服务

适合于企业进阶场景

自定义策略,综合考虑企业吞吐和速度指标,匹配业务模型

自定义模型,满足企业个性化需求

独立资源推理,稳定服务

企业定制速率限制

具有竞争力的定价模式

最新产品特色功能支持

扫码加入用户群

扫小助理进入用户群

关注硅基流动公众号

关注官方公众号

加速AGI普惠人类

增值电信业务经营许可证:京B2-20242084

京ICP备2024051511号-1