大模型应用实战:用 Stable Diffusion+Airtable 搭建电商商品图生成平台
大模型应用实战:用 Stable Diffusion+Airtable 搭建电商商品图生成平台
你好,欢迎来到我的博客。
如果你是一位电商卖家、一位市场运营,或者任何一位需要为产品和内容寻找精美配图的朋友,那么你来对地方了。我们常常会遇到这样的困境:新上架了一款设计简约的纯色水杯,如何让它的商品图在众多竞品中脱颖而出?是花费数千元请摄影师搭建一个北欧风格的场景,还是自己花上一下午时间笨拙地学习Photoshop,最终却只得到一张平平无奇的白底图?
这些问题,在过去是成本与效率的无解之选。但今天,AI的发展,特别是强大的文生图模型Stable Diffusion,为我们提供了一条全新的路径。
这不再是遥不可及的未来科技,而是触手可及的生产力工具。本系列教程的目标,就是带领你——即使你没有任何编程经验——一步步地,将Airtable、Stable Diffusion和Make这三个工具像乐高积木一样组合起来,搭建一个属于你自己的、半自动化的“AI产品摄影棚”。你将能仅通过填写一些商品描述,就一键生成高质量、风格多变的商品场景图。
准备好了吗?让我们一起开始这场激动人心的创造之旅。
我们为什么要这样做?—— 解决电商卖家的“配图”之痛
在开始动手之前,我们必须清晰地理解我们要做的事情的价值所在。这能帮助我们在后续的搭建过程中,始终保持目标明确。
1. 问题的核心:配图的“三重困境”
- 成本困境: 专业的商业摄影是一项昂贵的投资。摄影师、模特、专业影棚、后期修图,每一个环节都需要预算。对于SKU众多、上新频繁的中小卖家而言,这是一笔巨大的开销。
- 效率困境: 传统的出图流程冗长。从沟通拍摄方案、准备道具、实际拍摄到后期制作,整个周期可能长达数天甚至数周,完全跟不上电商行业快速迭代的节奏。
- 创意困境: 如何让一个普通的商品焕发光彩?你需要为它构思一个故事、一个场景。一个“放在清晨阳光洒落的厨房餐桌上的陶瓷杯”,远比一张“白色背景的陶瓷杯”更能打动人心。但这种创意能力的实现,本身就是一种稀缺资源。
2. 我们的解决方案:一个自动化的创意工作流
我们的目标是搭建一个系统,它能理解我们用文字描述的创意,并自动将其转化为视觉图像。下面是这个系统的蓝图:
graph TD; subgraph 用户操作区 A[1. 商家在Airtable中填写商品描述
(如: 颜色-米白, 材质-陶瓷, 风格-日式侘寂风)] end subgraph 自动化处理区 (由Make执行) B{2. Airtable中的\'生成\'开关被勾选, 触发Make流程} --> C[3. Make从Airtable获取所有描述信息]; C --> D[4. Make自动将描述拼接成一条
给AI的专业指令(Prompt)]; D --> E[5. Make携带指令调用Stable Diffusion API]; end subgraph AI生成与结果返回 F[6. Stable Diffusion模型根据指令生成图片]; E --> F; F --> G[7. Make接收生成的图片链接]; end subgraph 结果展示区 G --> H[8. Make将图片链接和\'完成\'状态
写回到Airtable对应的商品行]; H --> I[9. 商家刷新Airtable页面,
直接看到并下载成品图]; end style A fill:#D6EAF8,stroke:#3498DB style I fill:#D5F5E3,stroke:#2ECC71
3. 技术选型解析:为什么是这“三剑客”?
-
Airtable (数据大脑): 想象一下,Airtable不是一张普通的Excel表格,而是一个智能的货架。每个商品都是一个卡片,上面贴着各种结构化的标签(颜色、材质等)。这种结构化特性,让计算机可以轻松地读取和理解。更重要的是,它能“感知”到我们的操作(比如勾选一个复选框),并通知其他系统开始工作,是整个流程的完美起点。
-
Stable Diffusion API (魔法画笔): 这是实现我们创意的核心。API(应用程序编程接口)这个词听起来很吓人,但你可以把它理解成一个“点餐服务员”。我们只需要按照固定的格式写好“菜单”(也就是Prompt指令),然后通过API递给“服务员”,他就会进入“AI厨房”把“菜”(图片)做好了端回来。我们全程无需关心厨房里复杂的烹饪过程,只需等待结果。这极大地降低了使用顶尖AI模型的门槛。
-
Make (自动化中枢): 如果说Airtable是起点,Stable Diffusion是终点,那么Make就是连接两者的桥梁。没有Make,我们就需要自己编写一台服务器程序,24小时监听Airtable的变化,再写代码去调用API,处理返回结果……这是一项复杂且繁琐的开发工作。而Make提供了一个可视化的界面,我们只需要通过拖拽模块,设置参数,就能构建出强大而稳定的自动化流程,就像搭建乐高一样直观。
理解了这些基础概念,我们就有了清晰的地图。接下来,让我们带上工具,开始施工。
步步为营 —— 从零搭建你的AI摄影棚
请跟随我的每一个步骤,不要急躁,理解每一步背后的“为什么”,你将收获良多。
第一站:配置我们的“数据大脑”—— Airtable
首先,我们需要一个地方来管理我们的商品信息和生成指令。Airtable是最佳选择。
- 访问 Airtable官网 并注册一个免费账户。
- 登录后,点击“Create a base”,选择“Start from scratch”,给你的基地取个名字,例如“AI商品图生成平台”。
- 进入Base后,你会看到一个默认的表格。我们可以修改它,来满足我们的需求。请按照下表配置你的字段(列):
商品名称
颜色
材质
风格
场景描述
Prompt (指令)
CONCATENATE(\"A \", {颜色}, \" \", {材质}, \" cup, \", {风格}, \" style, \", {场景描述}, \", product photography, soft light, high detail, 8k\")
生成开关
图片成品
状态
为什么要用公式字段来生成Prompt?
这是一个关键的设计。直接让用户手写完整的Prompt,门槛很高且质量参差不齐。通过将Prompt拆分为几个结构化的部分(颜色、材质、风格)和一个开放的部分(场景描述),再用公式拼接,我们保证了指令的基础结构是稳定和专业的(例如,包含了product photography, high detail
等关键术语),同时又给予了用户足够的创作自由。这极大地提升了最终出图效果的稳定性和质量。
完成配置后,你的Airtable表格看起来应该像这样。现在,尝试填写一行数据作为我们的第一个测试用例。
第二站:获取我们的“魔法画笔”—— Stable Diffusion API
现在,我们需要获得调用AI绘画模型的能力。我们将使用Stability.ai官方提供的API。
- 访问 Stability.ai官网,注册一个账户。
- 登录后,在右上角点击你的头像,选择 “API Keys”。
- 在这里,你会看到一串以
sk-
开头的字符。这就是你的API Key。点击复制按钮将它保存到一个安全的地方(例如你的密码管理器或一个临时的记事本中)。
非常重要的安全提示:
API Key就相当于你在这个平台上的密码。任何拥有你API Key的人都可以消耗你的账户额度。绝对不要将它分享给任何人,也不要直接写在公开的代码或网页中。
第三站:搭建“自动化中枢”—— Make
这是整个流程中最核心、也是最有趣的部分。
- 访问 Make.com 并注册账户(它同样提供免费套餐)。
- 登录后,进入 “Scenarios” 页面,点击右上角的 “Create a new scenario”。
- 你将看到一个巨大的加号,点击它,搜索并选择 “Airtable”。
节点一:触发器 (Airtable - Watch Records)
这是我们流程的起点,它会时刻“监视”着Airtable的变化。
- 在弹出的模块列表中,选择 “Watch Records”。
- Connection: 点击 “Add”,按照提示授权Make访问你的Airtable账户。
- Base & Table: 选择你刚刚创建的“AI商品图生成平台”Base和对应的Table。
- Trigger Field: 这是关键!选择我们创建的
生成开关
字段。这意味着,只有当生成开关
这个复选框的状态从“未勾选”变为“已勾选”时,这个流程才会被触发。 - Label: 给这个模块起个名字,比如“监控商品图生成请求”。
- 点击 “OK” 完成设置。
节点二:执行者 (HTTP - Make a request)
现在,我们需要将从Airtable获取到的指令,发送给Stable Diffusion。
- 将鼠标悬停在Airtable模块的右侧,会出现一个加号,点击它,在弹出的菜单中搜索并选择 “HTTP”。
- 在列表中选择 “Make a request”。
- URL: 填入Stability.ai的API端点。对于最新的模型,通常是
https://api.stability.ai/v1/generation/stable-diffusion-v1-6/text-to-image
- Method: 选择
POST
。这告诉服务器,我们要“提交”一些数据去创建一个新的资源(也就是图片)。 - Headers:
- 添加第一个Header,
Name
为Content-Type
,Value
为application/json
。 - 添加第二个Header,
Name
为Authorization
,Value
为Bearer 【你的API密钥】
。(注意: 将【你的API密钥】
替换为你刚刚从Stability.ai复制的sk-
开头的密钥,Bearer
后面有一个空格)。
- 添加第一个Header,
- Body type: 选择
Raw
。 - Content type: 选择
JSON (application/json)
。 - Request content: 这是我们要发送给AI的“菜单”,请将下面的代码粘贴进去:
{ \"text_prompts\": [ { \"text\": \"\" } ], \"cfg_scale\": 7, \"height\": 1024, \"width\": 1024, \"samples\": 1, \"steps\": 30}
- 现在,进行最神奇的一步:将光标定位在
\"text\": \"\"
的两个双引号之间。然后,在弹出的映射窗口中,从第一个Airtable模块里,找到并点击Prompt (指令)
字段。你会看到这个字段被添加到了代码中,类似{{1.Prompt}}
。 - 为什么这样做? 这就是自动化的核心。我们不是写死一个指令,而是动态地将Airtable中对应行的
Prompt
内容填充到API请求中。 - 勾选 “Parse response”。
- 点击 “OK” 保存。
节点三:回传者 (Airtable - Update a Record)
AI生成图片后,我们需要将结果放回Airtable。
- 再次点击HTTP模块右侧的加号,添加一个新的Airtable模块。
- 这次选择 “Update a Record”。
- Connection, Base, Table: 选择和第一个节点相同的配置。
- Record ID: 这是为了告诉Airtable要更新哪一行。在映射窗口中,务必从第一个Airtable模块(Watch Records)中,找到并点击
ID
字段。 - 更新字段:
- 在
图片成品
字段中,点击 “Add item”。URL
一栏,从第二个HTTP模块的返回数据Data
->artifacts
中,找到并映射base64
字段(Stability API返回的是Base64编码的图片数据,Airtable可以自动识别处理)。路径可能看起来像这样:{{2.data.artifacts[0].base64}}
。 - 在
状态
字段中,直接选择“已完成”。
- 在
- 点击 “OK” 保存。
至此,我们的自动化流程已经搭建完毕!点击左下角的 “Save” 保存,然后点击 “ON” 按钮激活你的Scenario。
测试运行:
回到你的Airtable,找到你之前填写的那行测试数据,然后,轻轻地勾选 生成开关
复选框。
稍等片刻(大约30秒到1分钟),刷新你的Airtable页面。你将会惊喜地发现:状态
字段变成了“已完成”,而 图片成品
字段里,一张由AI根据你的描述生成的精美图片已经赫然在列!
打通最后一公里 —— 嵌入Shopify后台
我们已经实现了一个强大的后端工作流。但对于每天都在Shopify后台工作的商家来说,如果能在商品编辑页面直接点击一个按钮就完成这一切,体验无疑会更好。
这通常需要创建一个简单的Shopify应用来实现,但基本思路如下:
- 创建Shopify App: 利用Shopify提供的开发者工具,创建一个可以嵌入到商品详情页后台的UI扩展(UI Extension)。
- 设置触发按钮: 在这个扩展中,放置一个名为“AI一键生成主图”的按钮。
- 调用Make Webhook: 将Make流程的触发器从“监控Airtable记录”改为“Webhook”。Make会提供一个唯一的URL。当商家在Shopify后台点击按钮时,Shopify App就向这个URL发送一个请求,并附带上当前商品的ID或描述。
- 流程联动: Make接收到请求后,后续的步骤(调用Stable Diffusion API,将结果存入Airtable或直接通过Shopify API更新商品图片)与我们今天搭建的流程大同小异。
这部分内容涉及一些前端开发知识,我们将把它作为进阶话题,在未来的文章中深入探讨。但现在,你已经掌握了整个解决方案最核心的自动化逻辑。
总结
今天,我们一起从一个真实的业务痛点出发,没有编写一行复杂的代码,而是通过巧妙地组合现有工具,成功搭建了一个实用的AI商品图生成平台。
我们回顾一下这趟旅程:
- 我们用 Airtable 实现了商品创意的结构化管理。
- 我们借助 Stable Diffusion API 获得了顶级的AI绘画能力。
- 我们通过 Make 的可视化流程编辑器,将二者无缝地连接在了一起,实现了从指令到成果的全自动化。