算力平台:
LoRA
LoRA 是一种快速且轻量级的训练方法,它插入并训练数量显著减少的参数,而不是所有模型参数。这会产生一个较小的文件(约 100 MB),并使得快速训练模型以学习新概念变得更加容易。LoRA 权重通常加载到去噪器、文本编码器或两者中。去噪器通常对应于 UNet(例如 [UNet2DConditionModel
])或 Transformer(例如 [SD3Transformer2DModel
])。有几种用于加载 LoRA 权重的类:
- [
StableDiffusionLoraLoaderMixin
] 提供了加载和卸载、融合和解融合、启用和禁用等功能,用于管理 LoRA 权重。该类可以用于任何模型。 - [
StableDiffusionXLLoraLoaderMixin
] 是 [StableDiffusionLoraLoaderMixin
] 类的 Stable Diffusion (SDXL) 版本,用于加载和保存 LoRA 权重。它只能用于 SDXL 模型。 - [
SD3LoraLoaderMixin
] 提供了类似的功能,用于 Stable Diffusion 3。 - [
AmusedLoraLoaderMixin
] 用于 [AmusedPipeline
]。 - [
LoraBaseMixin
] 提供了一个基类,包含多个实用方法,用于融合、解融合、卸载 LoRA 等。
StableDiffusionLoraLoaderMixin
[[autodoc]] loaders.lora_pipeline.StableDiffusionLoraLoaderMixin
StableDiffusionXLLoraLoaderMixin
[[autodoc]] loaders.lora_pipeline.StableDiffusionXLLoraLoaderMixin
SD3LoraLoaderMixin
[[autodoc]] loaders.lora_pipeline.SD3LoraLoaderMixin
AmusedLoraLoaderMixin
[[autodoc]] loaders.lora_pipeline.AmusedLoraLoaderMixin
LoraBaseMixin
[[autodoc]] loaders.lora_base.LoraBaseMixin