오늘 글에서는 간단한 이미지 생성 워크플로우를 만드는 방법을 보여드릴게요. 맞아요, 바로 ComfyUI를 사용해서요. 우리는 적절한 노드를 설정하고, 시드(seed), 값(value), CFG 스케일, 그 외 중요한 설정들을 설명할 거예요. 이 가이드를 끝까지 따라오면, Stable Diffusion을 사용해 사용자 정의된 이미지 생성이 가능해집니다.
그럼 시작해볼까요?
먼저, 컴퓨터에서 ComfyUI가 실행 중인지 확인하세요. 실행하려면 run_nvidia_gpu.bat 파일을 더블 클릭합니다. 또는 이전 수업에서 설명했듯이, run-confui.com에서 웹 기반 인터페이스를 실행할 수도 있어요.
이제 워크플로우를 만들기 전에 인터페이스에 익숙해지는 시간을 갖겠습니다. 즉, 노드를 어디서 찾는지, 워크플로우를 구축하는 데 필요한 도구가 어디 있는지를 알아보는 거예요.
작업 공간의 아무 곳에서든 오른쪽 클릭하면 다양한 하위 메뉴와 노드 목록이 표시됩니다. 이 하위 메뉴는 다소 복잡해서 저는 주로 더블 클릭으로 검색창을 띄우고 필요한 노드를 직접 입력해서 찾는 걸 선호해요. 더블 클릭하면 검색창이 뜨고, 여기서 노드 이름을 입력하면 됩니다. 익숙해지면 훨씬 빠르게 원하는 노드를 찾을 수 있어요.
에러 메시지가 나오면, 하단의 콘솔 창을 확인하세요. 어떤 문제가 발생했는지 알려줍니다.
1. 기본 워크플로우 만들기
우선, 모델이 필요해요. ComfyUI에서는 이것을 Checkpoints라고 부릅니다.
이번 예제에서는 Mohawk version 2라는 모델을 사용합니다.
**civitai.com**에서 **VAE가 포함된 버전(baked VAE)**을 다운로드하세요.
다운로드한 모델을 ConfUI 폴더 내의 models/checkpoints 폴더에 붙여넣습니다.
참고로, ControlNet 모델을 넣는 폴더도 따로 있어요 (models/controlnet).
더블 클릭 후 checkpoint loader를 입력하고 선택합니다. 이게 우리의 첫 번째 노드입니다.
Checkpoint Loader 노드에는 세 가지 출력이 있습니다:
- Model: 핵심 Stable Diffusion 모델
- CLIP: 프롬프트(텍스트)를 인코딩하는 텍스트 인코더
- VAE: Variational Autoencoder, 잠재 이미지를 실제 이미지로 디코딩하는 역할
우리는 VAE가 이미 포함된 모델을 사용하기 때문에 별도로 VAE를 불러올 필요가 없습니다.
2. 프롬프트 설정
CLIP 출력에서 드래그하여 연결을 끌면 검색창이 나옵니다.
clip text encode를 입력하고 선택하세요. 이것이 긍정 프롬프트입니다.
이 노드를 Ctrl+C / Ctrl+V로 복사해서 부정 프롬프트도 하나 만듭니다.
- 긍정 프롬프트 노드를 오른쪽 클릭 → 노드 색상 설정, 원하는 색상으로
- 부정 프롬프트 노드는 빨간색으로 설정 (부정을 나타냄)
3. 이미지 생성: K-Sampler
이제 K-Sampler 노드를 추가합니다. 더블 클릭 후 k sampler 입력.
연결:
- 긍정 프롬프트 → K-Sampler의 Positive 입력
- 부정 프롬프트 → K-Sampler의 Negative 입력
- 모델 출력 → K-Sampler의 Model 입력
K-Sampler는 **잠재 이미지 입력(latent input)**이 필요합니다.
K-Sampler의 latent input에서 드래그하고 empty latent image를 선택합니다.
이 노드는 해상도와 배치 크기를 설정할 수 있습니다.
SDXL 모델 사용 시, sdxl resolution 노드를 추가해 이미지 크기를 자동 조정할 수도 있어요.
Empty latent image 노드를 오른쪽 클릭 → width/height를 input으로 변환
그리고 원하는 해상도 (예: 1344 × 768) 설정
4. 이미지 디코딩 및 미리보기
K-Sampler의 **출력(latent)**을 드래그하여 vae decode를 선택
Checkpoint Loader에서 VAE 출력을 연결
이제 최종 출력을 위한 노드:
- preview image: ComfyUI에서 결과 미리보기
- 또는 save image: 결과를 파일로 저장
5. 프롬프트 예시
- 긍정 프롬프트:
- cinematic low angle view of a man in a fighting position wearing a karate suit in an ancient Japanese interior. Low key lighting in the style of 35 millimeter film shot on ari-alexa
- 부정 프롬프트:
- unrealistic, blurry, deformation, low resolution
Mohawk v2는 **프롬프트 반응성(prompt adherence)**이 좋습니다.
Q Prompt 버튼을 눌러 이미지 생성을 시작하세요.
처음 실행 시 약간 시간이 걸릴 수 있어요.
진행 상황은 콘솔 창에서 확인할 수 있고, 처리 중인 노드는 녹색 테두리로 표시됩니다.
이미지가 생성되면, 휠 스크롤로 확대하거나 오른쪽 클릭 → 이미지 저장 / 열기를 선택하세요.
6. 노드 정리 및 그룹화
노드가 많아질수록 정리가 중요합니다.
Ctrl 키를 누른 채 여러 노드를 드래그로 선택 → 오른쪽 클릭 → “Add group for selected nodes”
그룹에 이름 부여 (예: Base Workflow, Prompt) 및 색상 지정
7. ControlNet 사용하기
이제 ControlNet을 추가해 더 많은 제어 기능을 넣어봅시다.
- control net apply advanced 노드를 추가 (K-Sampler 앞에 위치)
- 긍정/부정 프롬프트를 각각 연결
ControlNet Loader 노드 추가:
- 적절한 ControlNet 모델 선택 (사용 중인 모델과 버전이 일치해야 함, 예: 1.5 / SDXL)
- 모델 매니저에서 설치 후 Refresh 누르면 목록에 나타납니다
AUX Preprocessor 노드 추가:
- ControlNet 모델에 맞는 전처리 선택 (예: OpenPose)
Load Image 노드 추가:
- 기준 이미지 로딩 → AUX Preprocessor로 연결
- 필요 시 프리뷰 이미지 노드 추가로 전처리 결과 확인
모두 연결 후 Q Prompt 클릭 → ControlNet이 적용된 이미지 생성
마무리
ControlNet 관련 노드들을 그룹화하고, 이름을 ControlNet으로 지정하고 색도 변경하세요.
다음 강의에서는 캐릭터 생성 및 **룩 개발(LookDev)**에 대해 더 깊이 다룰 예정입니다.
'AI' 카테고리의 다른 글
ComfyUI 환경(Environment) 개발 (1) | 2025.06.07 |
---|---|
ComfyUI를 활용한 캐릭터 개발 (0) | 2025.06.07 |
ComfyUI 설정하기 - 온라인 (0) | 2025.06.06 |
ComfyUI 설치하기 (0) | 2025.06.06 |
AI 영화제작 도구 (0) | 2025.06.06 |