蓝耘DS满血版震撼来袭!500万Tokens限时免费,开启AI新纪元_500 万tokens 免费体验包
🎁个人主页:我们的五年
🔍系列专栏:Linux网络编程
🌷追光的人,终会万丈光芒
🎉欢迎大家点赞👍评论📝收藏⭐文章
前言:
2025年02月21日 14:23,蓝耘科技股份有限公司公布,蓝耘元生代推理引擎现已上线满血版 DeepSeek R1/V3,支持在线体验&API调用,采用按token计费、按小时整点结算模式,还可享500万不限时的免费tokens!
目录
蓝耘科技股份有限公司的介绍
蓝耘科技集团股份有限公司专注于GPU算力云服务
企业概况
DeepSeek R1/V3满血版:性能与功能的突破
模型性能升级
全场景适配
快速上手使用
OpenAI兼容接口
Python 示例
JavaScript 示例
使用 curl 的示例
Go 示例
注意事项
与chatbox工具搭配使用
总结:
蓝耘科技股份有限公司的介绍
蓝耘科技集团股份有限公司专注于GPU算力云服务
企业概况
蓝耘科技集团股份有限公司成立于2004年,总部位于北京,在上海、广州、厦门等地设有分子
司,于2017年挂牌新三板,是一家专注于提供GPU算力解决方案与算力云服务的科技公司。
公司拥有一支专业的技术团队,从IT基础架构建设到云计算,从实施到售后,均有丰富的经验。公
司为国家高新技术企业、中关村高新技术企业、国家级专精特新“小巨人”企业称号。
发展至今,蓝耘已经形成了以GPU算力解决方案为基础,GPU算力云服务为核心的业务版图,依
托多年实践积累的技术经验,为相关高校、科研院所、企事业单位等有高性能计算需求的客户,提
供随时随地可获取的低成本高质量的GPU算力云服务,满足客户业务应用和GPU算力随需扩展的
双重需求。
DeepSeek R1/V3满血版:性能与功能的突破
DeepSeek R1和V3满血版在性能和功能上实现了重大突破,为用户带来了更高效、更智能的AI体验。
模型性能升级
推理效率提升:在千亿参数规模下,单机推理速度提升40%,响应延迟低至300ms以内。
多模态能力扩展:支持图像描述生成、音视频摘要(最长支持2小时内容压缩至5分钟精炼文本)
2025年Q2将开放跨模态问答功能。
全场景适配
云端API调用:提供OpenAI兼容接口,支持Python、Node.js、Java、CURL等多种语言。
混合部署方案:结合蓝耘智算云平台,可本地化部署模型,满足数据隐私敏感型企业需求。
成本控制革新
动态资源调度:根据请求量自动扩缩容,空闲时段资源释放率高达90%,较传统GPU租赁方案节
省60%成本。
免费资源池:新用户赠送500万Tokens(永久有效),足够完成约10万次常规问答交互。
from openai import OpenAI# 构造 clientclient = OpenAI( api_key=\"sk-xxxxxxxxxxxxxx\", # 替换为你的 API Key base_url=\"https://maas-api.lanyun.net/v1\",)# 流式响应stream = True# 发送请求chat_completion = client.chat.completions.create( model=\"/maas/deepseek-ai/DeepSeek-R1\", messages=[ { \"role\": \"user\", \"content\": \"你是谁\", } ], stream=stream,)if stream: for chunk in chat_completion: # 打印思维链内容 if hasattr(chunk.choices[0].delta, \'reasoning_content\'): print(f\"{chunk.choices[0].delta.reasoning_content}\", end=\"\") # 打印模型最终返回的内容 if hasattr(chunk.choices[0].delta, \'content\'): if chunk.choices[0].delta.content is not None and len(chunk.choices[0].delta.content) != 0: print(chunk.choices[0].delta.content, end=\"\")else: result = chat_completion.choices[0].message.content print(result)
快速上手使用
官网链接:
https://maas.lanyun.net
首先进入登录蓝耘元生代智算云平台。
在这里就可以输入问题,就能马上得到回复。
1.根据需要,使用API KEY调用对应接口,即可开始使用。
2. 使用后,可进入“资源包管理”,选择接口查看使用情况。
OpenAI兼容接口
以下是基于OpenAI兼容接口的代码示例,适用于不同编程语言,帮助开发者快速接入和使用相关服务:
Python 示例
import openai# 设置API密钥和基础URL(根据实际服务提供商修改)openai.api_key = \"YOUR_API_KEY\"openai.api_base = \"https://api.example.com/v1\" # 替换为实际的API基础URL[^51^]# 调用接口生成文本response = openai.ChatCompletion.create( model=\"model_name\", # 替换为实际模型名称,如 \"deepseek-r1\" messages=[ {\"role\": \"user\", \"content\": \"请介绍一下人工智能的发展历程\"} ], max_tokens=500)print(response.choices[0].message.content)
JavaScript 示例
import OpenAI from \"openai\";const openai = new OpenAI({ apiKey: \"YOUR_API_KEY\", baseURL: \"https://api.example.com/v1\" // 替换为实际的API基础URL[^52^]});const completion = await openai.chat.completions.create({ model: \"model_name\", // 替换为实际模型名称 messages: [ { role: \"user\", content: \"请介绍一下人工智能的发展历程\" } ], max_tokens: 500});console.log(completion.choices[0].message.content);
使用 curl 的示例
curl https://api.example.com/v1/chat/completions \\-H \"Content-Type: application/json\" \\-H \"Authorization: Bearer YOUR_API_KEY\" \\-d \'{ \"model\": \"model_name\", # 替换为实际模型名称 \"messages\": [ { \"role\": \"user\", \"content\": \"请介绍一下人工智能的发展历程\" } ], \"max_tokens\": 500}\'[^52^]
Go 示例
package mainimport ( \"bytes\" \"encoding/json\" \"fmt\" \"io/ioutil\" \"net/http\" \"os\")const OPENAI_API_URL = \"https://api.example.com/v1/chat/completions\" // 替换为实际的API基础URL[^54^]func main() { apiKey := os.Getenv(\"OPENAI_API_KEY\") requestBody, err := json.Marshal(map[string]interface{}{ \"model\": \"model_name\", // 替换为实际模型名称 \"messages\": []map[string]string{ {\"role\": \"user\", \"content\": \"请介绍一下人工智能的发展历程\"}, }, }) if err != nil { panic(err) } req, err := http.NewRequest(\"POST\", OPENAI_API_URL, bytes.NewBuffer(requestBody)) if err != nil { panic(err) } req.Header.Set(\"Authorization\", \"Bearer \"+apiKey) req.Header.Set(\"Content-Type\", \"application/json\") client := &http.Client{} resp, err := client.Do(req) if err != nil { panic(err) } defer resp.Body.Close() body, err := ioutil.ReadAll(resp.Body) if err != nil { panic(err) } fmt.Println(\"Response from API:\") fmt.Println(string(body))}
注意事项
-
API Key:请确保使用正确的API密钥,通常在服务提供商的控制台中获取。
-
基础URL:根据实际服务提供商的API文档,替换为正确的基础URL。
-
模型名称:根据实际支持的模型名称进行替换,例如
deepseek-r1
或其他模型。
与chatbox工具搭配使用
-
获取API KEY:从API KEY管理中复制密钥
-
下载Chatbox:访问官网 https://chatboxai.app/zh 获取各平台版本(支持Windows/Mac/iOS/Android/Web)
-
配置Chatbox:以Windows版本为例进行操作
-
启动设置:打开Chatbox应用,进入设置界面
总结:
在当今数字化浪潮中,人工智能已成为推动各行业变革的核心力量。而蓝耘科技,作为国内领先的GPU算力云服务提供商,凭借其强大的技术实力和创新精神,正成为AI时代的中流砥柱。
蓝耘科技深耕行业近20年,专注于为AI训练、推理、视觉特效、科研等计算密集型场景提供弹性、高效的GPU算力支持。其自研的“元生代”智算云平台,不仅集成了先进的Kubernetes架构,还实现了大规模GPU任务调度与自动化运维,为企业和开发者提供了前所未有的便利与高效。
2025年,蓝耘科技再次引领行业潮流,正式上线DeepSeek R1和V3满血版。这一全新升级的模型不仅在推理效率上实现了质的飞跃,更在多模态能力上进行了深度拓展,支持图像描述生成、音视频摘要等多种功能。同时,蓝耘科技还为每位新用户提供了500万不限时的免费Tokens,助力开发者快速上手,开启AI应用开发的新篇章。
蓝耘科技的DeepSeek R1/V3满血版,不仅支持网页版和API调用,更提供了零代码智能应用搭建、企业级API服务、高阶参数配置、模型精调实验室、资源监控体系以及生态工具集成等六大核心功能。无论是科研论文辅助写作,还是跨境电商智能运营,DeepSeek都能为用户提供高效、智能的解决方案。
选择蓝耘科技,就是选择未来。我们强烈推荐蓝耘科技及其DeepSeek R1/V3满血版,为您的企业或项目提供强大的AI算力支持。让我们携手蓝耘科技,共同开启智能算力的新时代!
蓝耘元生代智算云:https://cloud.lanyun.net//#/registerPage?promoterCode=0131