各位AI炼丹师们!今天咱们来聊聊ComfyUI里那个最基础、但要是没它你就只能对着屏幕发呆的节点——CLIP Text Encode。你可以把它想象成你和AI之间的翻译官,你负责天马行空,它负责把你想画的东西翻译成AI能听懂的数学语言。
这货到底是干啥的?
简单说,CLIP Text Encode就是个咒语转换器。你输入的是一个在雨中喝咖啡的赛博朋克少女,它输出的是一串复杂的数学向量(CONDITIONING),告诉KSampler:照着这个方向去噪,别给我画歪了!

核心逻辑:从人话到机器码
- 接收指令:你输入文本提示词(Prompt)。
- 分词与编码:CLIP模型把你的句子拆成一个个词元(Token),然后通过Transformer神经网络,理解这些词之间的关系。
- 输出条件:最终生成一个条件张量,作为图像生成的导航图。
适配场景
- 文生图:最基础的用法,告诉AI你想画啥。
- 图生图:配合原图,告诉AI你想往哪个方向改。
- ControlNet/IPAdapter:作为辅助条件,控制画面风格或内容。
实操教程
- 添加节点:在ComfyUI空白处右键 -> CLIP -> CLIP Text Encode。
- 连线:把节点的输出端口,连到KSampler的conditioning输入端口。
- 输入提示词:在输入框里,输入你的英文咒语!
- 输出连接:把这个节点的输出端口,连到KSampler的输入端口。搞定!
参数设置
参数说明text这是你的咒语输入框。clip这是翻译官的脑子。必须从Checkpoint节点连过来。节点对比
节点说明CLIP Text EncodeComfyUI原生节点,朴实无华,稳定可靠。CLIPTextEncode第三方插件增强版,可能支持更复杂的权重语法。避坑指南
- 语言问题:尽量用英文提示词,中文效果目前不太稳定。
- 权重调整:选中提示词,按Ctrl+上键可以增加权重,降低权重。
- Flux模型注意:Flux模型通常需要两个CLIP Text Encode节点(一个CLIP_L,一个T5XXL)。
好了,关于CLIP Text Encode的嘴替之旅就到这里。下一篇咱们聊聊它的反派兄弟——CLIP Text Encode Neg!

评论列表 (5条):
加载更多评论 Loading...