AI 绘画初探索记录 – Stable Diffusion
撰写人:Keruone
起稿时间:2025-4-28
📝 先说说怎么开始的
其实几年前就注意到 Stable Diffusion 了(也是因为 秋葉aaaki 的视频),当时就挺想玩玩的(๑•́ ₃ •̀๑),不过一想到自己电脑配置一般,担心带不动,就一直拖着。
最近又刷到秋葉aaaki 的视频,不经又打算尝试一下。
不如试试看吧!失败了就失败了,大不了重装系统!(ง •̀_•́)ง
然后……虽然中途经常爆内存(捂脸),但最后还是搞定了(。>∀<。)
🛠️ 中间也不是没踩坑……
⚙️ 环境配置小插曲
虽然绘世已经很贴心了,但在装 PyTorch、Git、Python 这些依赖的时候,还是因为兼容性问题,遇到了一些奇怪的报错。
好在绘世启动器支持打开命令行,手动调了一下,总算把环境给搭好了! _(´ཀ`」 ∠)_)
💻 硬件瓶颈:内存捉急现场
我的电脑只有 16GB 内存,每次跑模型都像走钢丝,很容易 OOM(Out Of Memory) ⚡
🖼️ 初次探索:从图思艺术到自主生成
在最初接触 Stable Diffusion 的阶段,我选择在 图思艺术 TusiArt 平台进行模型调用与测试。
当时尝试了不少热门模型 (・ω・)つ,然而整体效果并不理想,生成的图片常常存在细节不稳定、画风偏差等问题。
随着尝试的深入,我逐渐意识到,仅仅依赖平台调用模型并不能带来理想的结果。
生成效果的优劣,与提示词(prompt)、所选模型、使用的 LoRA(局部风格调整模块)等因素密切相关 (๑•̀ㅂ•́)و✧。
因此,我开始有意识地学习其他创作者的作品设定,包括:
– 分析优秀作品使用的关键词搭配;
– 参考所选的基础模型与 LoRA组合;
– 观察细节设定,如光影处理、表情动作、构图风格等。
在此基础上,我逐步尝试自己撰写提示词,并根据需要选择合适的模型与 LoRA,最后辅以 AI 的润色处理 (。•̀ᴗ-)✧。
经过不断的调整与探索,最终能够较为稳定地生成符合预期的高质量图像,整体体验也在不断优化和提升。
🎉 最后,看看结果吧:
图片加载可能需要一会儿~~
(´・ω・`)♪ 等待中…