产品

Log in

产品

Log in

SiliconCloud,高性价比的GenAI云服务

基于优秀的开源基础模型

产品

Log in

SiliconCloud,高性价比的GenAI云服务

基于优秀的开源基础模型

优质模型服务

01.

对话

SiliconCloud基于优质的大语言模型提供服务,包括Qwen、DeepSeek、 Llama3等,为用户提供超快的模型访问体验。

02.

图片生成

SiliconCloud包含各种文本到图像和文本到视频模型,例如Flux.1 系列SDXL、SDXL lightning等。

03.

更多

SiliconCloud还提供功能丰富的其他高效模型,包括嵌入(embedding)、重排序(reranker)、语音、视频生成等模型。

01.

对话

SiliconCloud基于优质的大语言模型提供服务,包括Qwen、DeepSeek、 Llama3等,为用户提供超快的模型访问体验。

02.

图片生成

SiliconCloud包含各种文本到图像和文本到视频模型,例如Flux.1 系列SDXL、SDXL lightning等。

03.

更多

SiliconCloud还提供功能丰富的其他高效模型,包括嵌入(embedding)、重排序(reranker)、语音、视频生成等模型。

基于优秀开源模型的云端推理服务

MaaS

企业级全场景模型服务

企业级全场景模型服务

MaaS

MaaS

基于优秀开源模型的云端推理服务

基于优秀开源模型的云端推理服务

01.

对话

SiliconCloud基于优质的大语言模型提供服务,包括Qwen、DeepSeek、 Llama3等,为用户提供超快的模型访问体验。

02.

图片生成

03.

更多

01.

对话

SiliconCloud基于优质的大语言模型提供服务,包括Qwen、DeepSeek、 Llama3等,为用户提供超快的模型访问体验。

02.

图片生成

03.

更多

企业级模型微调与部署

企业级模型微调与部署
企业级模型微调与部署

专为大模型微调与托管打造的一站式服务平台。通过该平台,用户可以快速、无缝地将自定义模型部署为服务,并根据自己上传的数据进行模型微调。

专为大模型微调与托管打造的一站式服务平台。通过该平台,用户可以快速、无缝地将自定义模型部署为服务,并根据自己上传的数据进行模型微调。

专为大模型微调与托管打造的一站式服务平台。通过该平台,用户可以快速、无缝地将自定义模型部署为服务,并根据自己上传的数据进行模型微调。

数据上传

构建合适的数据集并上传,用于创建微调作业。数据集由单个JSONL文件组成,其中每行都是一个单独的训练数据。

Step.01→

模型微调

选择合适的数据集,调整相关参数,训练特定的模型以提高模型效果,满足定制化需求。

Step.02→

效果评估

上传评测数据集,对训练好的模型进行效果评估,选出效果最优的微调模型进行部署。

Step.03→

模型部署

在云平台上部署微调后的模型,通过API接口调用。

Step.04

模型微调到模型部署全链路支持

模型精调到模型部署全链路支持

数据上传

构建合适的数据集并上传,用于创建微调作业。数据集由单个JSONL文件组成,其中每行都是一个单独的训练数据。

Step.01→

模型精调

选择合适的数据集,调整相关参数,训练特定的模型以提高模型效果,满足定制化需求。

Step.02→

效果评估

上传评测数据集,对训练好的模型进行效果评估,选出效果最优的精调模型进行部署。

Step.03→

模型部署

在云平台上部署精调后的模型,通过API接口调用。

Step.04

模型微调到模型部署全链路支持

数据上传

构建合适的数据集并上传,用于创建微调作业。数据集由单个JSONL文件组成,其中每行都是一个单独的训练数据。

Step.01→

模型微调

选择合适的数据集,调整相关参数,训练特定的模型以提高模型效果,满足定制化需求。

Step.02→

效果评估

上传评测数据集,对训练好的模型进行效果评估,选出效果最优的微调模型进行部署。

Step.03→

模型部署

在云平台上部署微调后的模型,通过API接口调用。

Step.04

高性能、弹性、易用

高性能、弹性、易用
高性能、弹性、易用

引擎赋能,模型推理显著提速

引擎赋能,模型推理显著提速
引擎赋能,模型推理显著提速

大语言模型时间延迟最高降低2.7倍

大语言模型时间延迟最高降低2.7倍

Max Concurrent Requsets

Max Concurrent Requsets

Max Concurrent Requsets

文生图推理速度最快提升3倍

文生图推理速度最快提升3倍

Image 1024*1024, batch size, steps 30, on A100 80GB SXM4

Image 1024*1024, batch size, steps 30, on A100 80GB SXM4

Image 1024*1024, batch size, steps 30, on A100 80GB SXM4

End2End Time (sec)

End2End Time (sec)

End2End Time (sec)

按需自动缩扩容,降低总拥有成本

按需自动缩扩容,降低总拥有成本
按需自动缩扩容,降低总拥有成本

1.

1.

创建包含SiliconFlow实例集合的自动缩扩容组。

创建包含SiliconFlow实例集合的自动缩扩容组。

1.

平台根据配置提供加速效果评估,用户按需选择是否加速。

3.

指定该组中实例数的最大最小值。

2.

指定所需的容量和自动扩展策略。

2.

4.

2.

指定所需的容量和自动扩展策略。

指定所需的容量和自动扩展策略。

创建成功,平台将按需自动调整服务规模,确保在负载高峰时快速扩展实例,负载减少时缩减资源。

3.

3.

指定该组中实例数的最大最小值。

指定该组中实例数的最大最小值。

4.

4.

创建成功,平台将按需自动调整服务规模,确保在负载高峰时快速扩展实例,负载减少时缩减资源。

创建成功,平台将按需自动调整服务规模,确保在负载高峰时快速扩展实例,负载减少时缩减资源。

简单易用

简单易用
简单易用

from openai import OpenAI


client = OpenAI(api_key="YOUR_API_KEY", base_url="https://api.siliconflow.cn/v1")

response = client.chat.completions.create(

model='deepseek-ai/DeepSeek-V2.5',

messages=[

{'role': 'user',

'content': "SiliconCloud推出分层速率方案与免费模型RPM提升10倍,对于整个大模型应用领域带来哪些改变?"}

],

stream=True

)


for chunk in response:

print(chunk.choices[0].delta.content, end='')

模型推理

只需数行代码,开发者即可快速使用SiliconCloud的快速模型服务。

模型部署

·


上传模型服务描述,获取模型服务 API。

·


根据负载自动缩扩容,保持资源最优化。

·

平台根据配置提供加速效果评估,用户按需选择是否加速。

from openai import OpenAI


client = OpenAI(api_key="YOUR_API_KEY", base_url="https://api.siliconflow.cn/v1")

response = client.chat.completions.create(

model='deepseek-ai/DeepSeek-V2.5',

messages=[

{'role': 'user',

'content': "SiliconCloud推出分层速率方案与免费模型RPM提升10倍,对于整个大模型应用领域带来哪些改变?"}

],

stream=True

)


for chunk in response:

print(chunk.choices[0].delta.content, end='')


from openai import OpenAI


client = OpenAI(api_key="YOUR_API_KEY", base_url="https://api.siliconflow.cn/v1")

response = client.chat.completions.create(

model='deepseek-ai/DeepSeek-V2.5',

messages=[

{'role': 'user',

'content': "SiliconCloud推出分层速率方案与免费模型RPM提升10倍,对于整个大模型应用领域带来哪些改变?"}

],

stream=True

)


for chunk in response:

print(chunk.choices[0].delta.content, end='')

模型推理

模型推理

只需数行代码,开发者即可快速使用SiliconCloud的快速模型服务。

只需数行代码,开发者即可快速使用SiliconCloud的快速模型服务。

模型部署

模型部署

·


上传模型服务描述,获取模型服务 API。

上传模型服务描述,获取模型服务 API。

·


根据负载自动缩扩容,保持资源最优化。

根据负载自动缩扩容,保持资源最优化。

·

平台根据配置提供加速效果评估,用户按需选择是否加速。

平台根据配置提供加速效果评估,用户按需选择是否加速。

服务模式
Serverless服务

专为开发者打造

高性能推理,速度领先

丰富模型,多场景覆盖

按需付费,按词元计费

分级速率限制

按需实例服务

适合于初创企业场景

企业定制策略,吞吐或速度优先

自定义模型,满足企业个性化需求

独立资源推理,稳定服务

企业定制速率限制

预留实例服务

适合于企业进阶场景

自定义策略,综合考虑企业吞吐和速度指标,匹配业务模型

自定义模型,满足企业个性化需求

独立资源推理,稳定服务

企业定制速率限制

具有竞争力的定价模式

最新产品特色功能支持

服务模式

Serverless服务

专为开发者打造

高性能推理,速度领先

丰富模型,多场景覆盖

按需付费,按词元计费

分级速率限制

按需实例服务

适合于初创企业场景

企业定制策略,吞吐或速度优先

自定义模型,满足企业个性化需求

独立资源推理,稳定服务

企业定制速率限制

预留实例服务

适合于企业进阶场景

自定义策略,综合考虑企业吞吐和速度指标,匹配业务模型

自定义模型,满足企业个性化需求

独立资源推理,稳定服务

企业定制速率限制

具有竞争力的定价模式

最新产品特色功能支持

服务模式

Serverless服务

专为开发者打造

高性能推理,速度领先

丰富模型,多场景覆盖

按需付费,按词元计费

分级速率限制

按需实例服务

适合于初创企业场景

企业定制策略,吞吐或速度优先

自定义模型,满足企业个性化需求

独立资源推理,稳定服务

企业定制速率限制

预留实例服务

适合于企业进阶场景

自定义策略,综合考虑企业吞吐和速度指标,匹配业务模型

自定义模型,满足企业个性化需求

独立资源推理,稳定服务

企业定制速率限制

具有竞争力的定价模式

最新产品特色功能支持

服务模式

Serverless服务

专为开发者打造

高性能推理,速度领先

丰富模型,多场景覆盖

按需付费,按词元计费

分级速率限制



按需实例服务

适合于初创企业场景

企业定制策略,吞吐或速度优先

自定义模型,满足企业个性化需求

独立资源推理,稳定服务

企业定制速率限制


预留实例服务

适合于企业进阶场景

自定义策略,综合考虑企业吞吐和速度指标,匹配业务模型

自定义模型,满足企业个性化需求

独立资源推理,稳定服务

企业定制速率限制

具有竞争力的定价模式

最新产品特色功能支持

关注硅基流动公众号

关注硅基流动微信公众号

扫小助理进入用户群

加小助手进入用户交流群

加速AGI普惠人类

增值电信业务经营许可证:京B2-20242084

加速AGI普惠人类

关注硅基流动公众号

关注官方公众号

扫小助理进入用户群

扫小助理进入用户群

增值电信业务经营许可证:京B2-20242084

京ICP备2024051511号-1

扫小助理进入用户群

扫小助理进入用户群

关注硅基流动公众号

关注官方公众号

加速AGI普惠人类

增值电信业务经营许可证:京B2-20242084

京ICP备2024051511号-1

OneDiff,高性能图像生成引擎

基于优秀的开源基础模型

Log in

Log in

SiliconCloud,高性价比的GenAI云服务