Save all: Fixed blue screen, VibeVoice audio, Tiled setup

This commit is contained in:
2025-12-27 02:11:06 +01:00
parent 6a01731de0
commit 41fc635f3a
8 changed files with 322 additions and 35 deletions

84
ai_image_gen/apple.md Normal file
View File

@@ -0,0 +1,84 @@
# AI Image Generation na MacOS (Apple Silicon M1/M2/M3/M4)
MacOS z Apple Silicon čipi (M4) ne podpira Nvidia CUDA, zato ne morete uporabljati "navadnih" navodil za Nvidia RTX. Namesto tega uporabljamo **MPS (Metal Performance Shaders)**, ki omogoča uporabo grafičnega čipa na M4 procesorju.
## Priporočena Pot: ComfyUI (Native ali Docker)
Najbolj robusten način za poganjanje naprednih AI modelov (kot je Qwen-VL ali Stable Diffusion z Qwen text encoderjem) na Macu je uporaba **ComfyUI**, ki ima odlično podporo za MacOS.
### 1. Namestitev (Python venv method)
To je "native" način, ki teče direktno na tvojem Macu.
**Predpogoji:**
- Python 3.10 ali 3.11 (priporočeno)
- Git
**Postopek:**
1. **Odpri Terminal** in pojdi v mapo, kjer želiš imeti program:
```bash
cd ~/repos/novafarma/ai_image_gen # ali kamorkoli želiš
```
2. **Kloniraj ComfyUI:**
```bash
git clone https://github.com/comfyanonymous/ComfyUI
cd ComfyUI
```
3. **Ustvari virtualno okolje:**
```bash
python3 -m venv venv
source venv/bin/activate
```
4. **Namesti torch za MacOS (Nightly build za najboljšo M4 podporo):**
```bash
pip install --pre torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/nightly/cpu
```
5. **Namesti ostale odvisnosti:**
```bash
pip install -r requirements.txt
```
6. **Zaženi:**
```bash
python main.py
```
### 2. Uporaba Qwen Modelov
Qwen (Qwen-VL ali Qwen2-VL) so primarno "Vision-Language" modeli. Če jih želiš uporabljati za generiranje slik ali "chatting with images":
1. Namesti **ComfyUI-Qwen-VL-Chat** (custom node):
- Pojdi v `ComfyUI/custom_nodes`
- `git clone https://github.com/StartInception/ComfyUI-Qwen-VL-Chat`
- `pip install -r requirements.txt` (znotraj venv)
2. **Prenesi model:**
- Modeli so ponavadi v `.gguf` formatu za Mac (manj RAM-a) ali originalni `transformers` format.
- Prenesi npr. `Qwen2-VL-7B-Instruct` iz HuggingFace.
## Alternativa: MLX (Apple Framework)
Za maksimalno hitrost na M4 čipu obstaja knjižnica **MLX** od Apple-a.
1. **Namestitev:**
```bash
pip install mlx-lm
```
2. **Uporaba:**
MLX ekipa redno porta Qwen modele.
```bash
# Primer za Qwen text model
python -m mlx_lm.generate --model Qwen/Qwen2.5-7B-Instruct-mlx --prompt "Hello"
```
Za slike (VL modeli) preveri `mlx-examples` repozitorij na GitHubu.
## Pomembno za M4 Uporabnike
- **RAM je VRAM:** Tvoj sistemski RAM (npr. 32GB ali 64GB) se uporablja kot video spomin. Zapri Chrome/Electron aplikacije, ko generiraš slike, da sprostiš spomin.
- **Toplota:** Dolgotrajno generiranje bo segrelo prenosnik/Mac Mini. To je normalno.

65
ai_image_gen/rtx.md Normal file
View File

@@ -0,0 +1,65 @@
# AI Image Generation na PC (Nvidia RTX)
Nvidia RTX kartice so industrijski standard za AI. Uporabljajo **CUDA** jedra, kar zagotavlja najhitrejše generiranje in najširšo podporo.
## Priporočena Pot: ComfyUI (Windows/Linux)
### 1. Priprava Driverjev
- Posodobi Nvidia Studio ali Game Ready driverje na zadnjo verzijo.
- Namesti **CUDA Toolkit** (če delaš "ročno" namestitev, čeprav Torch to pogosto prinese s seboj).
### 2. Namestitev ComfyUI (Portable - Najlažje za Windows)
Če si na Windowsih, je najlažja pot "Portable" verzija, ki ima vse vključeno (Python, Torch, itd.).
1. **Prenesi:**
- Pojdi na [ComfyUI GitHub releases](https://github.com/comfyanonymous/ComfyUI/releases).
- Prenesi `ComfyUI_windows_portable_nvidia_cu121_or_cpu.7z`.
2. **Razširi:**
- Odzipaj datoteko v `C:\AI\ComfyUI` (ali podobno mapo brez presledkov v imenu).
3. **Zaženi:**
- Klikni `run_nvidia_gpu.bat`.
### 3. Ročna Namestitev (Linux / Advanced Windows)
1. Kloniraj repo:
```bash
git clone https://github.com/comfyanonymous/ComfyUI
```
2. Virtualno okolje in Torch (CUDA verzija):
```bash
python -m venv venv
source venv/bin/activate # ali venv\Scripts\activate na Win
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121
```
3. Ostalo:
```bash
pip install -r requirements.txt
python main.py
```
## Uporaba Qwen Modelov na RTX
Ker imaš RTX kartico, lahko poganjaš polne (ne-kvantizirane) modele, če imaš dovolj VRAM-a (npr. 24GB na 3090/4090).
### Qwen2-VL (Vision Language)
1. **Custom Nodes:**
- Namesti `ComfyUI-Qwen-VL-Chat` preko ComfyUI Managerja (priporočam namestitev Managerja: `git clone https://github.com/ltdrdata/ComfyUI-Manager` v `custom_nodes`).
2. **Modeli:**
- Prenesi modele iz HuggingFace (npr. `Qwen/Qwen2-VL-7B-Instruct`).
- Shrani jih v `ComfyUI/models/LLM` (morda boš moral ustvariti mapo, odvisno od custom node-a).
### VRAM Optimizacija
- **RTX 3060 (12GB) / 4060 Ti (16GB):** Uporabljaj `fp16` ali `int8` (kvantizirane) verzije modelov za hitrost in manjšo porabo spomina.
- **RTX 3090 / 4090 (24GB):** Lahko poganjaš večje modele (npr. 70B int4 ali 7B fp16) brez težav.
## Ostale Možnosti za RTX
- **Ollama:** Odlično za tekstovne/chat modele (tudi Qwen), teče lokalno in podpira GPU pospeševanje avtomatsko.
- **LM Studio:** GUI za nalaganje GGUF modelov, zelo enostaven za uporabo na Windowsih.