> 技术文档 > 开箱即惊艳!文心一言 4.5 开源模型的易用性与真实场景应用测评_文心一言开源模型

开箱即惊艳!文心一言 4.5 开源模型的易用性与真实场景应用测评_文心一言开源模型


前言

ERNIE-4.5在GitCode社区发布了,发布地址是:http://gitCode社区ERNIE4.5模型列表

是一个专门的栏目,有整个的ERNIE4.5的模型列表,可以支持各类的应用,并且还可以gitCode平台进行快速部署实操,真的是方便至极,小模型部署不足10分钟即可正式访问,下面我们进入具体操作。

目录

前言

测试模型说明

完整测试视频 

一、易用性——超快速部署ERNIE-4.5-0.3B-Paddle

ERNIE-4.5-0.3B-Paddle服务启动

基础访问测试

连续请求测试

大规模token提问

运势计算

整体请求代码

二、ERNIE-4.5-21B-A3B-Base-Paddle

21B文本测试过程

大规模token提问

三、ERNIE-4.5-VL-28B-A3B-PT

实际测试

测试总结


测试模型说明

整体对三个模型进行了测试,这里是整体的架设过程的基础数据,可供参考。

模型型号 显卡型号 部署时间 token效率 ERNIE-4.5-0.3B-Paddle A800 实测6分半 10次访问均291.4/秒 ERNIE-4.5-21B-A3B-Base-Paddle A800 实测17分钟 10次访问均36.72/秒 ERNIE-4.5-VL-28B-A3B-PT A100 实测21分钟 未测评

所测基础模型参数:

ERNIE-4.5-0.3B ERNIE-4.5-21B-A3B-Base ERNIE-4.5-VL-28B-A3B 关键字 关键字 关键字 模态 文本 模态 文本 模态 文本 & 视觉 训练阶段 后训练 训练阶段 预训练 训练阶段 后训练 参数量 0.36B 参数量(总 / 激活) 21B / 3B 参数(总 / 激活) 28B / 3B 层数 18 层数 28 层数 28 头数 (Q/KV) 16/2 头数(Q/KV) 20/4 头数(Q/KV) 20/4 上下文长度 131072 文本专家(总 / 激活) 64 / 6 文本专家(总 / 激活) 64 / 6 视觉专家(总 / 激活) 64 / 6 视觉专家(总 / 激活) 64 / 6 共享专家 2 共享专家 2 上下文长度 131072 上下文长度 131072

完整测试视频 

文心4.5开源模型易用性评测:0.3至28B模型

一、易用性——超快速部署ERNIE-4.5-0.3B-Paddle

ERNIE-4.5-0.3B 是一个文本密集型后训练模型。

模型地址:GitCode - 全球开发者的开源社区,开源代码托管平台

A100快,但是A800也够用。

获取的Python命令,如果运行不了就是环境的问题,需要预先安装写环境的依赖,依赖在下方我留下了:

python -m fastdeploy.entrypoints.openai.api_server \\ --model baidu/ERNIE-4.5-0.3B-Paddle \\ --port 8180 \\ --metrics-port 8181 \\ --engine-worker-queue-port 8182 \\ --max-model-len 32768 \\ --max-num-seqs 32

依赖下载提示,这个需要依据具体的服务器型号来看啊,在这里有说明:https://github.com/PaddlePaddle/FastDeploy

python -m pip install paddlepaddle-gpu==3.1.0 -i https://www.paddlepaddle.org.cn/packages/stable/cu126/

python -m pip install fastdeploy-gpu -i https://www.paddlepaddle.org.cn/packages/stable/fastdeploy-gpu-80_90/ --extra-index-url https://mirrors.tuna.tsinghua.edu.cn/pypi/web/simple

apt install libgomp1

需要下载一会,这里就等会吧,可以看到网速还算挺快,网速慢就没法愉快的玩耍了哦。

ERNIE-4.5-0.3B-Paddle服务启动

这里我们只需要等待完毕既可以看到对应的服务启动。

可以在最后面看到running的状态,并且有访问路径。

基础访问测试

构建请求代码:

import requestsimport jsondef main(): # 设置API端点 url = \"http://127.0.0.1:8180/v1/chat/completions\" # 设置请求头 headers = { \"Content-Type\": \"application/json\" } # 构建请求体 data = { \"model\": \"baidu/ERNIE-4.5-0.3B-PT\", \"messages\": [ { \"role\": \"user\", \"content\": \"你能帮我做什么\" } ] } try: # 发送请求 response = requests.post(url, headers=headers, data=json.dumps(data)) # 检查响应状态 response.raise_for_status() # 解析响应 result = response.json() # 打印响应结果 print(\"状态码:\", response.status_code) print(\"响应内容:\") print(json.dumps(result, indent=2, ensure_ascii=False)) # 提取并打印AI的回复内容 if \"choices\" in result and len(result[\"choices\"]) > 0: ai_message = result[\"choices\"][0][\"message\"][\"content\"] print(\"\\nAI回复:\") print(ai_message) except requests.exceptions.RequestException as e: print(f\"请求错误: {e}\") except json.JSONDecodeError: print(f\"JSON解析错误,响应内容: {response.text}\") except Exception as e: print(f\"发生错误: {e}\")if __name__ == \"__main__\": main()

访问效果:

连续请求测试

这里做一个连续请求测试看看效果,连续访问10次。

代码段:

import requestsimport jsonimport timefrom statistics import meandef send_request(): \"\"\"发送单次请求并返回响应时间和结果\"\"\" # 设置API端点 url = \"http://127.0.0.1:8180/v1/chat/completions\" # 设置请求头 headers = { \"Content-Type\": \"application/json\" } # 构建请求体 data = { \"model\": \"baidu/ERNIE-4.5-0.3B-PT\", \"messages\": [ { \"role\": \"user\", \"content\": \"你能帮我做什么\" } ] } try: # 记录开始时间 start_time = time.time() # 发送请求 response = requests.post(url, headers=headers, data=json.dumps(data)) # 检查响应状态 response.raise_for_status() # 解析响应 result = response.json() # 计算响应时间(毫秒) response_time = (time.time() - start_time) * 1000 return { \"success\": True, \"response_time\": response_time, \"status_code\": response.status_code, \"result\": result } except requests.exceptions.RequestException as e: print(f\"请求错误: {e}\") return {\"success\": False, \"error\": str(e)} except json.JSONDecodeError as e: print(f\"JSON解析错误: {e}\") return {\"success\": False, \"error\": f\"JSON解析错误: {str(e)}\"} except Exception as e: print(f\"发生错误: {e}\") return {\"success\": False, \"error\": str(e)}def main(): # 请求次数 request_count = 10 # 存储响应时间 response_times = [] # 存储成功请求数 success_count = 0 print(f\"开始执行 {request_count} 次请求...\\n\") # 执行多次请求 for i in range(request_count): print(f\"请求 {i+1}/{request_count} 执行中...\") # 发送请求 result = send_request() if result[\"success\"]: success_count += 1 response_times.append(result[\"response_time\"]) print(f\"请求 {i+1} 成功,响应时间: {result[\'response_time\']:.2f} 毫秒\") # 只打印第一次请求的详细结果 if i == 0: print(\"状态码:\", result[\"status_code\"]) print(\"响应内容:\") print(json.dumps(result[\"result\"], indent=2, ensure_ascii=False)) # 提取并打印AI的回复内容 if \"choices\" in result[\"result\"] and len(result[\"result\"][\"choices\"]) > 0:  ai_message = result[\"result\"][\"choices\"][0][\"message\"][\"content\"]  print(\"\\nAI回复:\")  print(ai_message) else: print(f\"请求 {i+1} 失败: {result.get(\'error\', \'未知错误\')}\") print(\"-\" * 50) # 如果不是最后一次请求,添加短暂延迟以避免请求过于频繁 if i < request_count - 1: time.sleep(0.5) # 计算统计信息 if response_times: avg_response_time = mean(response_times) min_response_time = min(response_times) max_response_time = max(response_times) print(\"\\n请求统计信息:\") print(f\"总请求数: {request_count}\") print(f\"成功请求数: {success_count}\") print(f\"失败请求数: {request_count - success_count}\") print(f\"平均响应时间: {avg_response_time:.2f} 毫秒\") print(f\"最小响应时间: {min_response_time:.2f} 毫秒\") print(f\"最大响应时间: {max_response_time:.2f} 毫秒\") else: print(\"\\n所有请求均失败,无法计算响应时间统计信息。\")if __name__ == \"__main__\": main()

效果:

AI回复:
当然可以!你有什么具体需求或问题吗?无论是学习新技能、处理任务,还是想聊点有趣的话题,我都很乐意帮你!比如:

- 推荐适合你的学习资料/工具?
- 解答一些生活/工作上的疑问?
- 分享有趣的小故事或生活小窍门?
- 聊聊最近喜欢的电影/音乐/美食?
- 任何需要帮忙的地方(比如写一篇短文/整理资料/翻译一段话)都可以告诉我! 😊
--------------------------------------------------
请求 2/10 执行中...
请求 2 成功,响应时间: 1560.42 毫秒
--------------------------------------------------
请求 3/10 执行中...
请求 3 成功,响应时间: 1196.12 毫秒
--------------------------------------------------
请求 4/10 执行中...
请求 4 成功,响应时间: 500.15 毫秒
--------------------------------------------------
请求 5/10 执行中...
请求 5 成功,响应时间: 389.99 毫秒
--------------------------------------------------
请求 6/10 执行中...
请求 6 成功,响应时间: 426.98 毫秒
--------------------------------------------------
请求 7/10 执行中...
请求 7 成功,响应时间: 1566.50 毫秒
--------------------------------------------------
请求 8/10 执行中...
请求 8 成功,响应时间: 345.84 毫秒
--------------------------------------------------
请求 9/10 执行中...
请求 9 成功,响应时间: 1605.62 毫秒
--------------------------------------------------
请求 10/10 执行中...
请求 10 成功,响应时间: 327.39 毫秒
--------------------------------------------------

请求统计信息:
总请求数: 10
成功请求数: 10
失败请求数: 0
平均响应时间: 903.63 毫秒
最小响应时间: 327.39 毫秒
最大响应时间: 1605.62 毫秒

大规模token提问

我们刚才做的是基础测试,这回我来一个大的,共计需要上传的token数量为1277个,这已经是很大的量了,我们依据这些数据计算当前的天气情况。

运势计算

请根据当前的具体黄道信息计算,当前的天气情况。

天干地支:乙巳壬午癸酉午时

属相:蛇

阴历时间:二〇二五年六月初九

具体时辰:12

六壬月:大安

六壬天:空亡

六壬日:速喜

月相:九夜月

物候:半夏生

节气:夏至

三元九运:下元九运

日禄:子命互禄辛命进禄

六爻:友引

七曜:木

彭祖天干:癸不词讼理弱敌强

彭祖地支:酉不会客醉坐颠狂

八字:乙巳壬午癸酉戊午

纳音:覆灯火-杨柳木-剑锋金-天上火

日宜:祭祀

沐浴

理发

整手足甲

修饰垣墙

平治道涂

馀事勿取

日忌:开市

入宅

出行

修造

词讼

时宜:订婚

嫁娶

开市

安葬

修造

时忌:祈福

求嗣

乘船

吉神:民日

天巫

福德

天仓

不将

续世

除神

鸣吠

凶神:劫煞

天贼

五虚

五离

每日相冲生肖:兔

每日相冲方位:东

星宿:獬

星宿吉凶:吉

星宿歌曲:斗星造作主招财

文武官员位鼎台

田宅家财千万进

坟堂修筑贵富来

开门放水招牛马

旺蚕男女主和谐

遇此吉宿来照护

时支福庆永无灾.

阳贵神方位:东南

阴贵神方位:正东

喜神方位:东南

福神方位:东北

财神方位:正南

月胎神:占床仓

今日胎神:房床门外西南

太岁方向:东南

十二值星:平日

北斗九星-年份-九数:三

北斗九星-年份-七色:碧

北斗九星-年份-五行属性:木

方位:正东

北斗九星:天玑

北斗九星名称:禄存

北斗九星-吉凶:凶

北斗九星-奇门:天冲

北斗九星-八门:伤门

北斗九星-八门吉凶:小吉

北斗九星-八门-奇门阴阳:阳

北斗九星-太乙名称:轩辕

北斗九星-太乙类型:安神

北斗九星-太乙九神歌诀:出入会轩辕

凡事必缠牵

相生全不美

相克更忧煎

远行多不利

博彩尽输钱

九天玄女法

句句不虚言.

北斗九星详解:三碧木震(正东)天玑玄空[禄存凶]奇门[天冲小吉伤门阳]太乙[轩辕安神]

整体请求代码

import requestsimport jsonimport timefrom statistics import meandef send_request(): \"\"\"发送单次请求并返回响应时间和结果\"\"\" # 设置API端点 url = \"http://127.0.0.1:8180/v1/chat/completions\" # 设置请求头 headers = { \"Content-Type\": \"application/json\" } # 构建请求体 data = { \"model\": \"baidu/ERNIE-4.5-0.3B-PT\", \"messages\": [ { \"role\": \"user\", \"content\": \"\"\"请根据当前的具体黄道信息计算,当前的天气情况。天干地支:乙巳壬午癸酉午时属相:蛇阴历时间:二〇二五年六月初九具体时辰:12六壬月:大安六壬天:空亡六壬日:速喜月相:九夜月物候:半夏生节气:夏至三元九运:下元九运日禄:子命互禄辛命进禄六爻:友引七曜:木彭祖天干:癸不词讼理弱敌强彭祖地支:酉不会客醉坐颠狂八字:乙巳壬午癸酉戊午纳音:覆灯火-杨柳木-剑锋金-天上火日宜:祭祀沐浴理发整手足甲修饰垣墙平治道涂馀事勿取日忌:开市入宅出行修造词讼时宜:订婚嫁娶开市安葬修造时忌:祈福求嗣乘船吉神:民日天巫福德天仓不将续世除神鸣吠凶神:劫煞天贼五虚五离每日相冲生肖:兔每日相冲方位:东星宿:獬星宿吉凶:吉星宿歌曲:斗星造作主招财文武官员位鼎台田宅家财千万进坟堂修筑贵富来开门放水招牛马旺蚕男女主和谐遇此吉宿来照护时支福庆永无灾.阳贵神方位:东南阴贵神方位:正东喜神方位:东南福神方位:东北财神方位:正南月胎神:占床仓今日胎神:房床门外西南太岁方向:东南十二值星:平日北斗九星-年份-九数:三北斗九星-年份-七色:碧北斗九星-年份-五行属性:木方位:正东北斗九星:天玑北斗九星名称:禄存北斗九星-吉凶:凶北斗九星-奇门:天冲北斗九星-八门:伤门北斗九星-八门吉凶:小吉北斗九星-八门-奇门阴阳:阳北斗九星-太乙名称:轩辕北斗九星-太乙类型:安神北斗九星-太乙九神歌诀:出入会轩辕凡事必缠牵相生全不美相克更忧煎远行多不利博彩尽输钱九天玄女法句句不虚言.北斗九星详解:三碧木震(正东)天玑玄空[禄存凶]奇门[天冲小吉伤门阳]太乙[轩辕安神] \"\"\" } ] } try: # 记录开始时间 start_time = time.time() # 发送请求 response = requests.post(url, headers=headers, data=json.dumps(data)) # 检查响应状态 response.raise_for_status() # 解析响应 result = response.json() # 计算响应时间(秒) response_time = time.time() - start_time # 获取token数量 completion_tokens = result.get(\'usage\', {}).get(\'completion_tokens\', 0) prompt_tokens = result.get(\'usage\', {}).get(\'prompt_tokens\', 0) total_tokens = result.get(\'usage\', {}).get(\'total_tokens\', 0) # 计算每秒token数量 tokens_per_second = total_tokens / response_time if response_time > 0 else 0 return { \"success\": True, \"response_time\": response_time, \"status_code\": response.status_code, \"result\": result, \"completion_tokens\": completion_tokens, \"prompt_tokens\": prompt_tokens, \"total_tokens\": total_tokens, \"tokens_per_second\": tokens_per_second } except requests.exceptions.RequestException as e: print(f\"请求错误: {e}\") return {\"success\": False, \"error\": str(e)} except json.JSONDecodeError as e: print(f\"JSON解析错误: {e}\") return {\"success\": False, \"error\": f\"JSON解析错误: {str(e)}\"} except Exception as e: print(f\"发生错误: {e}\") return {\"success\": False, \"error\": str(e)}def main(): # 请求次数 request_count = 1 # 存储统计数据 response_times = [] tokens_per_second_list = [] completion_tokens_list = [] prompt_tokens_list = [] total_tokens_list = [] # 存储成功请求数 success_count = 0 print(f\"开始执行 {request_count} 次请求...\\n\") # 执行多次请求 for i in range(request_count): print(f\"请求 {i+1}/{request_count} 执行中...\") # 发送请求 result = send_request() if result[\"success\"]: success_count += 1 response_times.append(result[\"response_time\"]) tokens_per_second_list.append(result[\"tokens_per_second\"]) completion_tokens_list.append(result[\"completion_tokens\"]) prompt_tokens_list.append(result[\"prompt_tokens\"]) total_tokens_list.append(result[\"total_tokens\"]) print(f\"请求 {i+1} 成功:\") print(f\"响应时间: {result[\'response_time\']:.3f} 秒\") print(f\"完成tokens: {result[\'completion_tokens\']}\") print(f\"提示tokens: {result[\'prompt_tokens\']}\") print(f\"总tokens: {result[\'total_tokens\']}\") print(f\"每秒tokens: {result[\'tokens_per_second\']:.2f}\") # 只打印第一次请求的详细结果 if i == 0: print(\"\\n第一次请求详细信息:\") print(\"状态码:\", result[\"status_code\"]) print(\"响应内容:\") print(json.dumps(result[\"result\"], indent=2, ensure_ascii=False)) # 提取并打印AI的回复内容 if \"choices\" in result[\"result\"] and len(result[\"result\"][\"choices\"]) > 0:  ai_message = result[\"result\"][\"choices\"][0][\"message\"][\"content\"]  print(\"\\nAI回复:\")  print(ai_message) else: print(f\"请求 {i+1} 失败: {result.get(\'error\', \'未知错误\')}\") print(\"-\" * 50) # 如果不是最后一次请求,添加短暂延迟以避免请求过于频繁 if i < request_count - 1: time.sleep(0.5) # 计算统计信息 if response_times: avg_response_time = mean(response_times) min_response_time = min(response_times) max_response_time = max(response_times) avg_tokens_per_second = mean(tokens_per_second_list) avg_completion_tokens = mean(completion_tokens_list) avg_prompt_tokens = mean(prompt_tokens_list) avg_total_tokens = mean(total_tokens_list) print(\"\\n请求统计信息:\") print(f\"总请求数: {request_count}\") print(f\"成功请求数: {success_count}\") print(f\"失败请求数: {request_count - success_count}\") print(\"\\n时间统计:\") print(f\"平均响应时间: {avg_response_time:.3f} 秒\") print(f\"最小响应时间: {min_response_time:.3f} 秒\") print(f\"最大响应时间: {max_response_time:.3f} 秒\") print(\"\\nToken统计:\") print(f\"平均完成tokens: {avg_completion_tokens:.1f}\") print(f\"平均提示tokens: {avg_prompt_tokens:.1f}\") print(f\"平均总tokens: {avg_total_tokens:.1f}\") print(f\"平均每秒tokens: {avg_tokens_per_second:.2f}\") else: print(\"\\n所有请求均失败,无法计算统计信息。\")if __name__ == \"__main__\": main()

请求效果:

AI回复:
### 当前天气情况
当前时辰为卯时(14:00),此时为黄道吉时,未出现不利天气因素,适宜出行、休息等。

### 今日吉宿
今日对应生肖为蛇,与所持吉宿(兔)相冲,即日时冲煞,煞气冲撞不利。

### 吉神方位
- **喜神**:东南
- **福神**:东北
- **财神**:正南
- **阳贵神**:东南

### 月胎神
方位为房床门外西南,未遇不利之事。

### 时支福庆
今日无吉庆之事,福禄寿全无灾。

### 十二值星
- **平日**:无
- **三**:木
- **七色**:碧
- **五行属性**:木
- **方位**:正东

### 北斗九星
- **正东**:天玑
- **天冲**:伤门
- **小吉**:阳
- **太乙**:轩辕

### 吉凶分类
- **凶**:天冲、小吉
- **奇门**:天冲、伤门
- **八门**:无
- **阴阳**:阳

### 具体事项
- **沐浴**:可进行
- **理发**:可进行
- **整手足甲**:可进行
- **修饰垣墙**:可进行
- **平治道涂**:可进行
- **馀事勿取**:可进行
- **日忌**:无
- **日宜**:订婚、嫁娶、开市、安葬、修造
- **时忌**:祈福、求嗣、乘船
--------------------------------------------------

请求统计信息:
总请求数: 1
成功请求数: 1
失败请求数: 0

时间统计:
平均响应时间: 4.063 秒
最小响应时间: 4.063 秒
最大响应时间: 4.063 秒

Token统计:
平均完成tokens: 399.0
平均提示tokens: 785.0
平均总tokens: 1184.0
平均每秒tokens: 291.40

回答的结果对的,刚下过雨,雨过天晴,现在是吉时,且响应的时间也还是可以的,毕竟整个上传的token量还是比较大的。

二、ERNIE-4.5-21B-A3B-Base-Paddle

升级一下,现在使用21B的模型,启动方式与0.3b是一样的。

我这里做了几次访问,上下拉动了一下,有些窜行,但能看到具体的版本:

21B文本测试过程

代码部分,这里需要对模型的名称进行修改,再进行分析。

 # 构建请求体 data = { \"model\": \"baidu/ERNIE-4.5-21B-A3B-Base-Paddle\", \"messages\": [ { \"role\": \"user\", \"content\": \"\"\"你作为一位人工智能能帮我发财吗?有什么渠道,请简洁的帮我说一下,吸引我的兴趣。 \"\"\" } ] }

AI回复:
作为一位人工智能,我虽然无法直接帮你发财,但我可以为你提供一些可能有助于你实现财务目标的建议和渠道。以下是一些简洁的要点:

1. **投资理财**:
   - **股票市场**:通过研究公司基本面、行业趋势,选择有潜力的股票进行投资。
   - **基金投资**:选择合适的基金产品,如指数基金、混合基金等,分散风险。
   - **债券投资**:投资国债、企业债等固定收益类产品,获取稳定收益。

2. **创业创新**:
   - 寻找市场空白,开发新产品或服务,满足消费者需求。
   - 利用人工智能技术,开发智能产品或服务,提高效率,降低成本。

3. **技能提升**:
   - 持续学习新知识,提升个人技能,增加职场竞争力。
   - 参加专业培训课程,获得相关证书,提高薪资待遇。

4. **副业赚钱**:
   - 利用业余时间,开展副业,如自媒体创作、电商销售、在线教育等。
   - 寻找兼职机会,如翻译、设计、编程等,增加收入来源。

5. **房地产投资**:
   - 购买房产,通过租金收入或房产增值获得收益。
   - 关注房地产市场动态,选择合适的投资时机。

6. **保险规划**:
   - 购买合适的保险产品,如人寿保险、健康保险等,为未来提供保障。
   - 了解保险产品的特点和优势,选择适合自己的保险方案。

请注意,以上建议仅供参考,具体投资决策需根据个人情况谨慎考虑。同时,投资有风险,入市需谨慎。在追求财务目标的过程中,务必保持理性,避免盲目跟风或冲动投资。

10次访问进行测试:

大规模token提问

这次我们进行八方位吉凶的提问:

根据下方的黄道日期,计算当前八方位的吉凶。天干地支:乙巳壬午癸酉午时属相:蛇阴历时间:二〇二五年六月初九具体时辰:12六壬月:大安六壬天:空亡六壬日:速喜月相:九夜月物候:半夏生节气:夏至三元九运:下元九运日禄:子命互禄辛命进禄六爻:友引七曜:木彭祖天干:癸不词讼理弱敌强彭祖地支:酉不会客醉坐颠狂八字:乙巳壬午癸酉戊午纳音:覆灯火-杨柳木-剑锋金-天上火日宜:祭祀沐浴理发整手足甲修饰垣墙平治道涂馀事勿取日忌:开市入宅出行修造词讼时宜:订婚嫁娶开市安葬修造时忌:祈福求嗣乘船吉神:民日天巫福德天仓不将续世除神鸣吠凶神:劫煞天贼五虚五离每日相冲生肖:兔每日相冲方位:东星宿:獬星宿吉凶:吉星宿歌曲:斗星造作主招财文武官员位鼎台田宅家财千万进坟堂修筑贵富来开门放水招牛马旺蚕男女主和谐遇此吉宿来照护时支福庆永无灾.阳贵神方位:东南阴贵神方位:正东喜神方位:东南福神方位:东北财神方位:正南月胎神:占床仓今日胎神:房床门外西南太岁方向:东南十二值星:平日北斗九星-年份-九数:三北斗九星-年份-七色:碧北斗九星-年份-五行属性:木方位:正东北斗九星:天玑北斗九星名称:禄存北斗九星-吉凶:凶北斗九星-奇门:天冲北斗九星-八门:伤门北斗九星-八门吉凶:小吉北斗九星-八门-奇门阴阳:阳北斗九星-太乙名称:轩辕北斗九星-太乙类型:安神北斗九星-太乙九神歌诀:出入会轩辕凡事必缠牵相生全不美相克更忧煎远行多不利博彩尽输钱九天玄女法句句不虚言.北斗九星详解:三碧木震(正东)天玑玄空[禄存凶]奇门[天冲小吉伤门阳]太乙[轩辕安神]

请求效果:

根据提供的黄道日期和相关信息,我们可以分析当前八方位的吉凶情况。以下是详细的解析:

### **一、八方位吉凶总览**
| 方位 | 吉凶 | 吉凶详解 |
|------|------|----------|
| **正东** | 凶 | 北斗九星天玑(禄存,凶) |
| **正南** | 小吉 | 八门伤门(阳) |
| **正西** | 吉 | 星宿獬(吉) |
| **正北** | 吉 | 星宿吉凶:吉 |
| **东南** | 吉 | 太乙轩辕(安神) |
| **西南** | 吉 | 星宿吉凶:吉 |
| **西北** | 吉 | 星宿吉凶:吉 |
| **东北** | 吉 | 福神方位东北 |

### **二、各方位详细解析**
#### **1. 正东(凶)**
- **北斗九星**:天玑(禄存,凶)
- **奇门**:天冲(小吉)
- **八门**:伤门(阳)
- **太乙**:轩辕(安神)
- **星宿**:獬(吉)
- **吉凶结论**:整体为凶,但星宿吉。

#### **2. 正南(小吉)**
- **八门**:伤门(阳)
- **奇门**:天冲(小吉)
- **星宿**:獬(吉)
- **吉凶结论**:小吉,整体偏向吉。

#### **3. 正西(吉)**
- **星宿**:獬(吉)
- **吉凶结论**:吉。

#### **4. 正北(吉)**
- **星宿**:獬(吉)
- **吉凶结论**:吉。

#### **5. 东南(吉)**
- **太乙**:轩辕(安神)
- **星宿**:獬(吉)
- **吉凶结论**:吉。

#### **6. 西南(吉)**
- **星宿**:獬(吉)
- **吉凶结论**:吉。

#### **7. 西北(吉)**
- **星宿**:獬(吉)
- **吉凶结论**:吉。

#### **8. 东北(吉)**
- **福神方位**:东北
- **吉凶结论**:吉。

### **三、其他关键信息**
- **星宿**:獬(吉),象征公正与威严,吉星高照。
- **太乙轩辕**:安神,表示安详宁静。
- **北斗九星**:天玑(禄存,凶),需谨慎。
- **八门伤门**:小吉,但需注意不利。

### **四、总结**
- **整体吉凶**:以正东为凶,其余方位以吉为主,其中正南、正西、正北、东南、西南、西北、东北均为吉,正东为凶。
- **注意事项**:正东方位需谨慎行事,其余方位可进行重要活动。

回复的比较详细,响应时间23秒,虽然时间稍微长一些,但是整体效果还是非常可以的。

三、ERNIE-4.5-VL-28B-A3B-PT

这回测试个大的:ERNIE-4.5-VL-28B-A3B-PT的支持图像,使用的服务器也要升级一下,这个用A100来跑,这回再来看看效果。

GitCode开源模型地址:GitCode - 全球开发者的开源社区,开源代码托管平台

实际测试

测试代码:

import requestsimport jsondef main(): # 设置API端点 url = \"http://127.0.0.1:8180/v1/chat/completions\" # 设置请求头 headers = { \"Content-Type\": \"application/json\" } # 构建请求体 data = { \"model\": \"baidu/ERNIE-4.5-VL-28B-A3B-PT\", \"messages\": [ { \"role\": \"user\", \"content\": [ {\"type\": \"text\", \"text\": \"细致分析,当前的这张图片中门是开着的还是关着的,返回[开] [关]。\"}, {\"type\": \"image_url\", \"image_url\": {\"url\": \"door (1).jpg\"}}, ] } ] } try: # 发送请求 response = requests.post(url, headers=headers, data=json.dumps(data)) # 检查响应状态 response.raise_for_status() # 解析响应 result = response.json() # 打印响应结果 print(\"状态码:\", response.status_code) print(\"响应内容:\") print(json.dumps(result, indent=2, ensure_ascii=False)) # 提取并打印AI的回复内容 if \"choices\" in result and len(result[\"choices\"]) > 0: ai_message = result[\"choices\"][0][\"message\"][\"content\"] print(\"\\nAI回复:\") print(ai_message) except requests.exceptions.RequestException as e: print(f\"请求错误: {e}\") except json.JSONDecodeError: print(f\"JSON解析错误,响应内容: {response.text}\") except Exception as e: print(f\"发生错误: {e}\")if __name__ == \"__main__\": main()

测试图片:

返回结果,从结果中说的【开】最开始我很迷茫,但是后来看了一下,竟然注意到最下面有条缝,并且高度很高。

理解能力相对来说是非常的高的,且很细致。

测试总结

整体测试了三个模型0.3B(文本)、21B(文本)、28B(多模态),其中0.3B部署时间不足10分钟即可正式使用,21B下载的时间稍长也是在20分钟内完成,28B差不多的时间,只有硬件需要匹配一下,相对来说想使用文心开源模型的时间成本非常低,部署起来也很方便,对应的300B和424B没有进行测试,但是毕竟是开源模型针对于一般技术人员,全血版本的企业来跑划算一些,我们跑28B的模型完全够用了呢,本次测评的效果非常不错,强烈推荐哦。