Пропоную обговорити AMD оновила ШІ-застосунок Amuse для генерації зображень і відео
Хто в темі, скажіть, наскільки це покращує амдшні карти для LLM-ентузіаста-початківця? Багато чув що якщо хочеш вдома запускати нейронки, то нвідія рулить.
Останні статті і огляди
Новини
AMD оновила ШІ-застосунок Amuse для генерації зображень і відео
-
Vatrushka
Member
- Звідки: Дніпро
-
Ijachok
Member
Ну генерити з допомогою цієї штуки ти можеш. Сам минулого року тикав на RX 6700. Намалював з десяток-другий картинок. Основний плюс - що ти це все робиш на своєму комп'ютері, без смс, лімітів і викладання на загальну стіну "твоїх" творіньVatrushka: ↑ 17.04.2025 19:48 Пропоную обговорити AMD оновила ШІ-застосунок Amuse для генерації зображень і відео
Хто в темі, скажіть, наскільки це покращує амдшні карти для LLM-ентузіаста-початківця? Багато чув що якщо хочеш вдома запускати нейронки, то нвідія рулить.
-
dos533
Junior
Amuse тільки привідкриває двері в аі генерацію картинок.Vatrushka: ↑ 17.04.2025 19:48 Пропоную обговорити AMD оновила ШІ-застосунок Amuse для генерації зображень і відео
Хто в темі, скажіть, наскільки це покращує амдшні карти для LLM-ентузіаста-початківця? Багато чув що якщо хочеш вдома запускати нейронки, то нвідія рулить.
Доступних моделей не дуже багато. Код закритий, допилювати нічого не зможеш. Є фільтри 18+, картинка заблюрена просто.
З плюсів, легко запускається з коробки на твоїй амд радеон в вінді. Просто поставив амуз, викачав моделі і грайся.
І так, nvidia рулить в цій ніші.
-
Геральт
Member
- Звідки: з Рівії
Яка йому вінда потрібна? 10ки вистарчить?dos533: ↑ 18.04.2025 07:10 З плюсів, легко запускається з коробки на твоїй амд радеон в вінді.
-
maxud_b
Member
- Звідки: Харків
Є 2 види користування LLM: використання і навчання. Останній набагато вимогливіший до ресурсів, бо проганяє інфу декілька разів в прямому так і зворотньому напрямі. Доcтуп до навчання через PyTorch чи Tensorflow, що нативно підтримують CUDA, а з АМД через RocM, яка сира і не завжди підтримує нове залізо (по чужим відгукам, немаю поки карт Радеон щоб перевірити але знаю про таку можливість). Тобто, для безкоштовних LMM універсальним є використовування NVidia, тоді як для LLM заточених під АМД можуть йти швидше саме на них, але щодо донавчання є питання. Для навчання непоганим вибором є хмарні середовища як Google Colab чи Kaggle, але це не для чутливої інформації...Vatrushka: ↑ 17.04.2025 19:48 Хто в темі, скажіть, наскільки це покращує амдшні карти для LLM-ентузіаста-початківця? Багато чув що якщо хочеш вдома запускати нейронки, то нвідія рулить.
-
Kassatka
Member
- Звідки: Курник під Києвом
Я от прочитав новину і вчора спробував. 10ки вистачило (у мене вона автоматично оновлюється до останньої версії).Геральт: ↑ 18.04.2025 08:11 Яка йому вінда потрібна? 10ки вистарчить?
Ну я якраз журився, що Stable Diffusion, яку я пробував у збірці Easy Diffusion, не працює на моїй RX 6800, лише на nVidia або на проці. А тут виявляється, що можна SD запустити. А на проці 512x512 зображення генерить кілька хвилин, 768x768 взагалі 20 хвилин, якщо треба швидко, то лишається нікчемні 256x256. А тут у Amuse 1024x1024 не надто довго генеряться.
Хоча мало моделей і цензура - це дуже сумно. І взагалі у Stable Diffusion дуже неякісна генерація зображень у порівнянні з комерційними продуктами.
-
Extra
Member
Чи від Nvidia є якась така ж зручна утиліта?
-
Геральт
Member
- Звідки: з Рівії
Також спробував. Ще так карта не пихтіла ні разу.Kassatka: ↑ 18.04.2025 11:58 Я от прочитав новину і вчора спробував.
Ну, щось там генерує.
-
Kassatka
Member
- Звідки: Курник під Києвом
Збірка Easy Diffusion, купу різних моделей і LoRa воно пропонує на https://civitai.com/?types=Checkpoint скачувати (з помітками Checkpoint та LoRa ). У першу чергу потрібно десь на просторах Інтернету скачати якісь із моделей Deliberate (я тут брав: Deliberate 2.0 – САМАЯ ЛУЧШАЯ МОДЕЛЬ – Stable Diffusion Я брав Deliberate v2 та останню v6, а також SFW варіант, бо іноді вивалює NSFW-контент там, де він власне тобі й не потрібен). У мене працювало тільки на проці, а у кого нВідіа, особливо з великим обсягом VRAM, то швидше працювати буде і можна буде ставити кращі розподільчі здатності.Extra: ↑ 18.04.2025 12:05 Чи від Nvidia є якась така ж зручна утиліта?
Може не настільки зручне, що працює як локальний сайт на пітоні й управляється з браузера, але працює як єдина збірка і весь пітон і віртуальний сайт для локалхосту установлюється купкою та запускається з ярлика (з правами адміна).