Stable Diffusion - LoRA

2023 ж. 16 Нау.
182 419 Рет қаралды

Portable LoRA ➜ github.com/serpotapov/Kohya_s...
► Boosty (эксклюзив) ➜ boosty.to/xpuct
► Telegram ➜ t.me/win10tweaker
► Discord ➜ / discord
🔥 Deliberate: deliberate.pro
🔥 Reliberate: huggingface.co/XpucT/Relibera...
🔥 LowRA / Lit: huggingface.co/XpucT/Loras/tr...
Плейлист Stable Diffusion: • Stable Diffusion
МОЯ ВЕРСИЯ Stable Diffusion: • Stable Diffusion Porta...
#StableDiffusion #LoRA #kohya_ss

Пікірлер
  • *✓ НАИБОЛЕЕ АКТУАЛЬНАЯ ИНФОРМАЦИЯ ПО LORA СЕГОДНЯ В ЭТОМ ВИДЕО:* boosty.to/lergeyseonov/posts/c29517db-ce64-4f3f-8144-8d70961e642e?share=post_link

    @XpucT@XpucT18 күн бұрын
  • Ну, пора разводить девушек на 15-30 фото лица, а не эти ваши "нюдцы"

    @WarstarPr@WarstarPr Жыл бұрын
  • Thanks for taking the time, I'll eventually get through the whole thing, but at the moment, this has been a helpful perspective of what a LoRA is.

    @Zenobeus@Zenobeus Жыл бұрын
  • Абсолютное уважение за это видео. И за portable версию. Всё работает просто как часы, что для open source вообще и для экосистемы A1111 в особенности просто фантастика. Мало кто понимает, какой труд был проделан автором, чтобы все могли это поделать у себя дома.

    @boi6514@boi651410 ай бұрын
  • Просмотрел все видео на х2, голова кажется нагрелась и сейчас начну стрелять лазерами из глаз. Зарядился зарядом Хачатура. И кажется люди теперь медленно разговаривают. Но реально круто, инфа топ, спасибо! 🎉

    @nkoffski@nkoffski Жыл бұрын
    • Других смотрю на х2 - это видео и другие на х1 и уже голова начинает кипеть) настолько погруженный автор в тему и такой концентрат сока дает))

      @user-gl3ou4jg3u@user-gl3ou4jg3u6 ай бұрын
    • Видео записано для коренных москвичей. Чтобы успевали понимать что к чему. Уральцы, например, сами по себе разговаривают и понимают быстро, примерно в 2 раза быстрее, чем обычно подбешивают москвичей. Уральцам лучше смотреть на скорости х2

      @fox082@fox0824 ай бұрын
  • Самое лучшее видео про обучение модели! Благодарю 🙏

    @defensez0ne@defensez0ne Жыл бұрын
  • Мега лайк! Спасибо большущее, за труды!

    @evgenys4942@evgenys4942 Жыл бұрын
  • Огромнейшая благодарность за такой туториал. Всё получается на ура!)

    @IIaIIaI1Ia@IIaIIaI1Ia4 ай бұрын
  • Наконец-то дождались, инструкция по LoRA! Спасибо что прислушиваешься к просьбам подписчиков, это неоценимо)

    @aearone@aearone Жыл бұрын
  • Вот и я добрался с работы до видосика!!! Ты как всегда Зажег!))))

    @Delorean_ARS@Delorean_ARS Жыл бұрын
  • "...эпох, эпок - должно быть 1, иначе у вас будет ПОЛНЫЙ ЕПОК, если Вы выберете число больше..." 🤣спасибо за видео, на одном дыхании

    @grxxndxxm@grxxndxxm Жыл бұрын
  • Ахаха, обожаю эти вставки с дисторшном контент как всегда невероятно полезный, спасибо!

    @andypodvalic9245@andypodvalic9245 Жыл бұрын
  • Респект и уважуха! Спасибо за детальное описание! Очень круто! Это просто магия.

    @protommo@protommo11 ай бұрын
  • Прошло уже больше 8-ми месяцев с угроз блокировки ютуба, что ещё сильнее подтверждает слухи, что ютуб не блокируют, только потому что ждут выхода нового ролика от Хачатура 👍

    @aartees11@aartees11 Жыл бұрын
  • Дождался LORA. Услышал все что хотел. Спасибо.

    @IceShtopor@IceShtopor Жыл бұрын
  • Каждый раз, когда вижу новое видео Хачатура, радуюсь как ребёнок новому мультику)

    @morzellen@morzellen Жыл бұрын
  • Титанический труд, шикарный контент. Этот час пролетел на одном дыхании. Количество полезной информации прямо запредельное. Спасибо!!

    @MOLOKOmilk@MOLOKOmilk Жыл бұрын
  • Шикарно. Благодарю вас

    @vladimirvova@vladimirvova Жыл бұрын
  • Божественный видос! Спасибо большое! Очень интересно побежал фоткать себя и друзей) Очень информативно и на самом деле коротко) Я смотрел на 1.5 всё очень понятно от и до конца. Спасибо!

    @romzes96@romzes9610 ай бұрын
  • Других смотрю на х2 - это видео и другие на х1 и уже голова начинает кипеть) настолько погруженный автор в тему и такой концентрат сока дает))

    @user-gl3ou4jg3u@user-gl3ou4jg3u6 ай бұрын
  • Tremendous video, I love the cut through the BS style. I learned a tremendous amount from this video and in general all your videos. I need to translate and subtitle them but that even gives me more in depth information as I have the transcript as well :) Cheers XpucT!

    @valthrudnir@valthrudnir Жыл бұрын
    • Half of the translation will be just curses and butthurt 😂😂

      @muhitdin5590@muhitdin55908 ай бұрын
    • It's boring to live on earth without knowing Russian language.😆

      @VitalikMc5@VitalikMc57 ай бұрын
  • Огнище!!! Хачатур и Сергей - мега спасибо! Лора - круть!

    @le6681@le6681 Жыл бұрын
  • Наконец-то !!!! Только сейчас смотреть начинаю, надеюсь поможешь как всегда, спасибо !!!)

    @user-oj4bb7ne3v@user-oj4bb7ne3v Жыл бұрын
  • Спасибо! учусь пользоваться SD по Вашим роликам, и только по Вашим рекомендациям! все четко и понятно, доходит быстро)))

    @inspector7099@inspector7099 Жыл бұрын
  • Круто. Ждал ваш ролик по этой теме. Хотелось ясной-ясности, а то есть там всякие..☺️

    @albertoflacoa@albertoflacoa Жыл бұрын
  • Для тех кто будет искать - куда кидать LoRA.json 7:30 минута. Мало-ли. Так-то на видео виден путь. Но так будет полезней.

    @niktosss666@niktosss666 Жыл бұрын
  • Вот это сейчас реально неожиданно было) не за горами анимация походу😅

    @panbacchus9657@panbacchus9657 Жыл бұрын
  • Досмотрел. Кайф (со вставок - тащусь от души). Для любителей «шоб с картинкою», типа меня, есть 2 способа (простой и совсем простой) добавить обложку для Lora: 1. Рядом с файлом, где находится тётя «Лора», кладете любую png картинку с таким же именем. Пример: iloveYourmomyLora.png 2. Генерируете картинку, открываете вкладку с «Лорами» в UI. и наводите курсор на название «Лоры». Над ним появится надпись «replace preview”. Вот на нее и кликайте.

    @albertoflacoa@albertoflacoa Жыл бұрын
  • Просто- ОГОНЬ! Хачатур- это "делай как я". И это правильно. Молодца.

    @nevervhood@nevervhood Жыл бұрын
  • Превью суперское 🔥🔥🔥

    @artkirius@artkirius Жыл бұрын
  • Спасибо, за ролик, как всегда всё чётко и по делу в отличии от многих остальных блогеров! Очень жду роликов по коллабу, т.к лучше тебя никто не объяснит.))

    @user-qu4dz5of2l@user-qu4dz5of2l Жыл бұрын
    • Привет 🖐 Уже: boosty.to/xpuct/posts/987f6426-909a-4066-8429-8fd4f377728e?share=post_link

      @XpucT@XpucT Жыл бұрын
  • ура ура новое видео, вечер пройдет восхитительно 😘👍

    @BredEbanyiTV@BredEbanyiTV Жыл бұрын
  • Хачатур, большое спасибо! Есть что проверить и попробовать)))

    @user-it2zf6pd8d@user-it2zf6pd8d Жыл бұрын
  • Жаль нельзя два лайка поставить, спасибо за сборку и видео! У кого не работает и ругается на [CUDA out of memory. Tried to allocate 20.00 MiB (GPU 0; 8.00 GiB total capacity; 7.14 GiB already allocated; ] (как было у меня , видяха 1080 GTX) предлагаю сделать так: 1) протереть глаза и запускать трейн на вкладке Dreambooth LoRA =) 2) поставить Mixed/Saved precision : fp16/fp16, 3) optimizer на ADAMW, 4)лайк подписка Хачатуру

    @emrita4827@emrita4827 Жыл бұрын
    • тоже на адам8 ошибку выдавало((( 1080Ti

      @vicdun12.21@vicdun12.2110 ай бұрын
    • такая же фигня на 1080ТI, поддерживаю на таких настройках работает

      @user-kc2lk2ub7v@user-kc2lk2ub7v8 ай бұрын
    • Ошибка на 3070 была. Теперь виснет на 0% на 1 шаге, если это типа такая скорость то тренировка 30 картинок будет буквально полгода длиться, не понимаю что не так настроено

      @orgax@orgax6 ай бұрын
    • ​@@orgax у меня вовсе даже тренить не начинает, пишет что не найден xformers.

      @joniharon511@joniharon5116 ай бұрын
    • это всё понятно, но он сказал, что будет всё говно и оно так и есть. тоже 1080ti

      @Demonfrompripyat@Demonfrompripyat2 ай бұрын
  • Спасибо огромное за portable Lora, а то с обычной установкой парился 2 часа, в итоге забил. А тут клик, клик и усе в ажуре. И как всегда крутая подача видео, для нормальных и тупых))). Живот болит от ржачки)) Все очень понятно, и результаты шикарные!!! Спасибо, от души!!

    @user-jc9wt2yr4b@user-jc9wt2yr4b Жыл бұрын
    • приветствую слушай я вот все делаю по видео ...загружаю светлую модель голубоглазую..а выходят китаянки темные ..что делаю не так подскажешь?..уже 3 раза тренировал..и 16 фото добавлял и 20 и 30))не пойму(((

      @K-A_Z_A-K_S_URALA@K-A_Z_A-K_S_URALA Жыл бұрын
    • @@K-A_Z_A-K_S_URALA та же история. уже несколько раз делаю и все бесполезно(

      @ketrinkate@ketrinkate8 ай бұрын
    • @@K-A_Z_A-K_S_URALA ​ @ketrinkate попробуй прибавить влияние лоры на максимум и убавь CFG Scale,я убавил CFG Scale на минимум и только так максимальный результат

      @Sekeluhaa@Sekeluhaa3 ай бұрын
    • ​@@ketrinkateпопробуй прибавить влияние лоры на максимум и убавь CFG Scale,я убавил CFG Scale на минимум и только так максимальный результат

      @Sekeluhaa@Sekeluhaa3 ай бұрын
    • хорошо благодарю@@Sekeluhaa

      @K-A_Z_A-K_S_URALA@K-A_Z_A-K_S_URALA3 ай бұрын
  • Хачатура, спасибо за твои работы! Лайвхак ребята - Если у вас выдает ошибку - это значит вы не успеваете удалить папку sample, ее надо моментально как появилось удалять, тогда всё работает!

    @SergeyCG@SergeyCG Жыл бұрын
  • Спасибо, за "приветы")) Всё по делу👍

    @user-jd2uw2iz5m@user-jd2uw2iz5m Жыл бұрын
  • Если кто не понял что за папка такая "samples", которую типа надо удалять - не указывайте входную папку и выходную в одно и то же место и никакие samples удалять не придется. Ошибка из за того что во входной папке должны быть только папки для обучения, у которых в имени задано количество шагов, а в имени папке samples нет никакой цифры, отсюда ошибка. Если выходная папка будет другой то и samples будет создаваться там и не будет мешать обучению.

    @alexp2179@alexp2179 Жыл бұрын
    • Спасибо, начало хоть что-то делать, но теперь ошибку CUDA out of memory даёт, не знаю почему, видюха 8гб

      @SimonsCatSE@SimonsCatSE9 ай бұрын
    • @@SimonsCatSE для начала нужно оставить только изображения 512*512, только batch size=1 и взять невысокий network rank типа 32 или меньше и Alpha (они вроде тоже влияют на память)

      @alexp2179@alexp21799 ай бұрын
    • @@alexp2179 спасибо, буду пробовать

      @SimonsCatSE@SimonsCatSE9 ай бұрын
  • Спасибо за видео! Ждал от тебя эту тему) И по поводу имени японца (осторожно, японист в чате): если это именно японец и у него так и написано Kohya, то он будет по-русски записываться как «Коя». Там в чём фишка: буква h используется для показания долгого звука. По-японски транскрибироваться азбукой будет こうや, на транслите kouya, но по факту типа «кооя» с долгой о. Но суть в том, что в именах собственных приняли систему, где это длинное о будет удлиняться через h, как в междометии «oh». Но у нас по-русски при написании иногда удвоение опускают, а так Коя или Кооя будут одинаково правильными. А так обычно видят Х и говорят Кохя или Кохья без понимания этих нюансов. Решил об этом написать отдельно, раз ты поднял эту тему в видео. Очень ценю, что ты так внимательно к именам относишься!

    @roman.bulando@roman.bulando Жыл бұрын
    • ☝ Красавчик

      @XpucT@XpucT Жыл бұрын
    • я его вообще костей называю) ему все равно а мне проще)

      @Reality-Games@Reality-Games Жыл бұрын
    • @@Reality-Games а Коля еще проще

      @morskoyzmey@morskoyzmey10 ай бұрын
    • Выучить кану быстрее, чем эти тупорылые правила транслитерации. Видимо сидели проффесора и за гранты думали, чтобы ещё такое напридумать чтобы наукообразнее выглядело

      @user-ss9ey9gh2v@user-ss9ey9gh2v10 ай бұрын
  • Спасибо за видеоуроки, пользуюсь SD очень давно, в том числе и Deliberate, но только недавно узнал, что у тебя есть канал, где я почерпнул много интересного, тк самоучка. Кстати, по моему опыту обучения лоры (после твоего видео пробовал разные способы), наилучший результат выходит при хороших качественных фото 512x768. И, если обучать с однотипных селфи, то кидать более 15-20 фото действительно будут лишним, но если обучать по разнообразным фото (разные прически, эмоции, одежда) + если у человека разные образы (например, фотомодель), то в этом случае допустимо и 35-40 фото, так даже результат будет лучше, наиболее близок к оригиналу. Но важно, чтобы выражения лица должны быть разные, плюс нейросеть копирует одежду, фигуру (что важно, если делаешь девушку) и разные причёски, что тоже потом даёт лучший результат.

    @h8edgetv@h8edgetv Жыл бұрын
  • тутор на час, все как мы любим))

    @stas_lu@stas_lu Жыл бұрын
  • Хачатур, большое спасибо тебе за твой НЕВЪЕБЕННЫЙ контент И Cереге лютый респект за лору Салют из Торонто

    @matthewr1926@matthewr1926 Жыл бұрын
    • @XpucT@XpucT Жыл бұрын
  • Ну неплохой гайд. Только есть один момент вы пошли по долгому пути. Там ечть вкладка tool. В которой просто также вставляете папки, папку с проектом и каличество проходов. Нажимаете сгенерировать папки и вторая серая кнопка отправить папки. И он распределит и создвст все как нужно.

    @ne-sci@ne-sci Жыл бұрын
  • Огромное спасибо! Лучший ролик по теме

    @multogen@multogen Жыл бұрын
  • Хачатур, премного тебе благодарен понятно, просто, качественно, смешно, классно. учиться довольно приятно благодаря тебе

    @tomk-ot4ju@tomk-ot4ju11 ай бұрын
  • Ну ты неимоверно крутой человечище! Особенно нравится подача и со знанием дела. Я сам тоже люблю закапываться в самые недра! Спасибо!

    @TheRomixERR@TheRomixERR Жыл бұрын
  • Про Эпоки зря так. Штука крайне полезная, и позволяет сравнить этапы обучения и выбрать наиболее удачный. (я обучал стилизованных персонажей. По достижению определенного количество шагов, трейн начинал становится хуже, и тут сильно помогла выборка разных эпох). Кроме того, это позволяет создавать некие точки сохранения, что в случае форс мажора можно будет начать именно с них, а не с нуля. Насчет размера, тут возможно уже претензия скорее не совсем актуальна, так как видео было сделано относительно давно, и модели обучаются на более высоком разрешении. Тут нужно уже смотреть на саму модель и информацию, на каком разрешении она обучалась. Но подъем до 640 уже разительно увеличивает качество последующих генераций. Ну и ещё, стоило уточнить почему (Папку нужно указывать где лежит папка с фотографиями) - это позволяет Лору обучить сразу на нескольких объектов. Т.е. по факту в один файл лора мы можем на обучении поместить, к примеру, сразу нескольких людей. Название же папки с фотографиями определяет тригерное слово обучаемого объекта. Возможность дообучить модель тоже крайне полезная и нужна не только когда (вы дурак и прервали обучения). Нужно к примеру, если вы делайте огромную модель, и используйте больше 100 изображений. Как если делайте определенный стиль или обучайте лору нескольким персонажам. И если у вас трейн прошел не совсем удачно и какие то моменты она подтянула плохо. (имеет смысл собрать ещё материалов с более наглядным внешним видом тех частей объекта, что нейронка не совсем корректно поняла). Я так поступил с лорой персонажа, которая нейронка съела вместе с одеждой и стала считать что одежда часть её тела. Я закинул в неё три удачные генерации оголенные модели, но с её анатомией и пропорциями. И после такого дообучения, лора стала более гибкая в подборе одежде к необходимому персонажу.

    @user-zy9ov2vm8q@user-zy9ov2vm8q6 ай бұрын
    • Уважаемый юзер. А вы не скажете, где можно узнать, КАК продолжить обучать лору или модель, если пришлось трейнинг остановить? То есть я не знаю, какие файлы куда ставить, чтобы продолжить. Где-то есть инфа по этому поводу? (огромное спасибо, если ответите)

      @dianaorion2@dianaorion23 ай бұрын
    • @@dianaorion2 Заходите в раздел "Parameters" и ищите раздел "LoRA network weights", там кнопка в виде файла будет. В открывшимся окне выбирайте последний сохраненный сейфтензер с лорой. По факту, таким образом можно дообучать даже скаченные с интернета чужие файлы LORA. Только важно, чтобы параметры Network Rank совпадали.

      @user-zy9ov2vm8q@user-zy9ov2vm8q3 ай бұрын
    • Если вы разрабатывали определённые стили, то можете пожалуйста поделиться своим опытом или дать ссылки на полезные руководства/справочники, так как сам хочу обучить модель конкретному стилю рисования. Буду очень вам благодарен.

      @kail1672@kail167216 күн бұрын
  • Очень крутые гайды и все же есть вопрос смотреть каждый часовой ролик в поисках конкретной части долго. Однако вот есть вопрос у меня есть модель которая была тренирована на основе другой модели и я нашел более крутую модель на которой хочу переучить текущую. Есть ли у вас где то гайд или ролик где эта тема затрагивается. Спасибо большое.

    @Dusterlog@Dusterlog8 ай бұрын
  • очень здорово , у тебя есть терпение для своей страсти 🫡 успех

    @romanovru7080@romanovru70807 ай бұрын
  • Существует ли связь между количеством материала для тренировки LoRA и ее итоговым качеством?

    @araders5852@araders5852 Жыл бұрын
  • Спасибо за видео, я устанавливал руками все это раньше, вроде беспроблемно, был до 20 минуты вопрос установлен ли cudn для 30 и 40 серии, но молодцы добавили и это, снимаю шляпу) Про BF16 не знал, использовал с FP16 на своей 4070ti Данный способ был проще и быстрее для меня, чем прошлое ваше видео про Train Спасибо что тратите время как разработчик и разбираете то, чем мы пользуемся, обычный человек никогда бы не разобрался в некоторых моментов. Продолжайте дальше в том же духе! Для видео надо уже добавлять дисклеймер что любые перемотки вы совершаете на свой страх и риск, потому что каждая секунда видео на вес золота) Ваша подача и сам контент на 200% окупает мою подписку на бусти Всех благ, Хачатур!

    @MrDoomsday@MrDoomsday Жыл бұрын
  • Спасибо за качественный контент!

    @NikitaBirukovich@NikitaBirukovich Жыл бұрын
  • Лайк и респект, не глядя!)

    @borgeborg@borgeborg Жыл бұрын
  • Как всегда прекрасен! Спасибо за проделанную работу! Смотрел видео от Оливио и других и вообще не вдуплил, как работает Лора. А тут прям в сердечко)

    @user-id5vg2fp1s@user-id5vg2fp1s Жыл бұрын
  • Премного благодарен! Отдельный респект за терпение и подробное разжёвывание для неспешных пацанов)

    @mdleo80@mdleo80 Жыл бұрын
  • Крутяк, как появится время попробую

    @ClipfilmRu1@ClipfilmRu1 Жыл бұрын
  • более доступного, с такой подачей материала я еще не встречал, огромное пасибо за материалы)))

    @ShadowPulseVibes@ShadowPulseVibes Жыл бұрын
  • Такой вопрос, а если нужно обучить лору на длинных фото (512х768), то насколько испортиться результат если изменить размер в настройках? Или в таких случаях нужно расстягивать каждое изображения в граф. редакторе до размеров 512х512?

    @avaro7655@avaro7655 Жыл бұрын
    • Если весь сет будет из 512x768 и в дальнейшем генерация будет точно в таком же 512x768, то смело пишем в LoRA 512x768 - это то исключение, которое допустимо. Спасибо за вопрос.

      @XpucT@XpucT Жыл бұрын
    • @@XpucT правильно же, что если лора обучена на 512х512 то при генерации артов 512х768 с использованием этой лоры, качество лоры будет не таким? или вообще лучше генерить без нее и потом в инпеинте подставлять?

      @EZHEVNKA@EZHEVNKA9 ай бұрын
  • Подача шикарна, как и материал....Ты сделал мой день, настроение супер

    @user-tn5dq8yn6q@user-tn5dq8yn6q Жыл бұрын
  • Так, что тут у нас, господин Аванесян с новым стендапом!

    @NECRODEFLORATOR@NECRODEFLORATOR Жыл бұрын
  • shnorhakalutyan ahagain ognecir inch asem maladec

    @armanpoghosyan3400@armanpoghosyan34004 ай бұрын
  • Хачатур, спасибо! Ты для меня новую вселенную открыл)) До этого я и в Миджорней баловался, зарегался в бета-тесте Леонардо, а тут оказывается эвона чо! Делиберейт + SD = потрясающая связка! Не смотря на то, что я актёр дубляжа, уже три дня сижу и генерирую, как дэбик картинку за картинкой и не могу остановиться. А теперь еще и Лариса подъехала (то бишь, Лора) Продолжай в том же духе, очень с юморком, грамотно и интересно рассказываешь, а главное - суть без воды. Суть от разраба, а не от неофитов.

    @DedBruzon@DedBruzon Жыл бұрын
  • Мастеру Хачатуру большое спасибо!

    @user-tj6xm1rz4e@user-tj6xm1rz4e Жыл бұрын
  • Как же нравится бомбёж, Бальзас на душу.

    @BreadMur@BreadMur5 ай бұрын
  • Шикарный мужчина, шикарно всё объясняет

    @user-wv8ww9zj4b@user-wv8ww9zj4b Жыл бұрын
  • Вопрос: если тренировать на основе растений, нужно ли напротив этих 30 фотографий в текстовых файлах детально указывать, что на фото? Или СД сам разберет, где какой стебелек и листочек? Думаю, лучше спросить, чем делать большой, но, возможно, бесполезный кусок работы.

    @ComplexTagret@ComplexTagret Жыл бұрын
  • "От эффекта ДаблЁбл никто не застрахован" просто вынесло Бля лучший учитель

    @Araxiscool@Araxiscool11 ай бұрын
  • Спасибо большое за видео !

    @RomanBrickson@RomanBrickson Жыл бұрын
  • Спасибо было очень интересно !!!!

    @user-rw5gn6st7e@user-rw5gn6st7e Жыл бұрын
  • Тоже мне разраб, не может написать приблуду для автоматического увеличиения размера камеры при повышении градуса пердакагорения, все руками крутит 🥴 Шикарны видос, спасибо! 🥳

    @MrCoffeemill@MrCoffeemill Жыл бұрын
  • Могла бы подписалась три раза. Я так хотела портативную Лору. Потому что все что в интернетах, это не для обычного обывателя. И когда я почти дозрела до установки всей этой страшной фигни, такая радость.

    @user-cd6px4lm3m@user-cd6px4lm3m Жыл бұрын
    • @XpucT@XpucT Жыл бұрын
  • огромное спасибо за ваше потраченное время👍👍👍

    @user-tm3bh7mm5x@user-tm3bh7mm5x3 ай бұрын
  • Ну наконец-то новое видео!

    @yaroslavdmitriev3028@yaroslavdmitriev3028 Жыл бұрын
  • хотелось бы видеть для расширения собственного кругозора: 1) результаты работы ресторфейса 2) признаки перетренерованности нейросети

    @user-lu1bd7hj6l@user-lu1bd7hj6l Жыл бұрын
  • Привет, я так понимаю программа обновилась и этот гайд бпольше не актуален?)

    @TimGood4@TimGood4Ай бұрын
  • титанический труд, с титаническим бомблением на блохеров :D спасибо)

    @snatvb@snatvb Жыл бұрын
  • На карте 1060 6gb почему-то не хочет тренироваться - не хватает памяти. В конце видео вы сказали, что запишете видос про Коллаб для тренировки. Посмотрел все видео на канале - такого не было. Может хоть ссылку дадите на безглючный рабочий коллаб для тренировки?

    @sergeys4949@sergeys49498 ай бұрын
  • Ждём такой же подробный разбор как обучить чекпоинт

    @8Fynjy@8Fynjy Жыл бұрын
  • Пожалуйста, подскажите, как сделать режим использования видеопамяти более щадящим? Не хватает памяти, пишет. В видеокарте установлено 4Гб (понятно, что маловато) RuntimeError: [enforce fail at ..\c10\core\impl\alloc_cpu.cpp:81] data. DefaultCPUAllocator: not enough memory: you tried to allocate 1638400 bytes...

    @RelaxVolia@RelaxVolia Жыл бұрын
  • Спасибо вам. Материал агнище

    @user-il1ik4hs4x@user-il1ik4hs4x6 ай бұрын
  • проверил связку, хорошо работает спасибо

    @luisferia5779@luisferia5779 Жыл бұрын
  • Не, ну это 10 епоков из 10👍

    @neuromaker@neuromaker Жыл бұрын
  • Огромное спасибо за видео! Очень подробно и понятно объясняется. А как происходит обучение сеток на основе визуального стиля художника? Когда полностью рисуются персонажи и окружение в этом стиле? т.е. с лицами понятно - нашёл 15-30 лиц персонажа и будет этот персонаж, но есть же сетки на основе работ комиксистов, например, и там любые персонажи и любое окружение в этом стиле.

    @dedhatab4423@dedhatab4423 Жыл бұрын
  • спасибо, долго ждал

    @5hem@5hem Жыл бұрын
  • Самое интересное, что я только думал как так сделать, чтобы не через руп. Ничего не искал. Но Ютуб знает что мне нужно. Не первый раз замечаю. ИИ уже работает в гугл и читает мысли. Лайк и подписка.

    @TheNexusRealm@TheNexusRealm2 ай бұрын
  • Добрый день! Спасибо за видео! Не могли бы вы пройтись по теме ошибок, в частности как решить проблему с ошибкой нехватки памяти: allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF. Сколько ковырялся с этой ошибкой и лазил по форумам, заметил что возникает она и на слабых вилюхах и на RTX последних поколений и не важно какой объем памяти. Реально большая проблема. Буду очень признателен.

    @kinoman6469@kinoman6469 Жыл бұрын
  • Пришел к блогеру за учением, а получил пиздюлей))) спасибо за видео!

    @charleskraffty9034@charleskraffty90344 ай бұрын
  • Огромное спасибо за ролик. У меня один вопрос, на который нигде не смог найти ответа. Есть рендеры меча в разных ракурсах. Реально ли как-то обучить LoRA, чтобы сгенерированные персонажи держали этот или похожий меч в руках?

    @_bulat@_bulat8 ай бұрын
  • Спасибо за маты, сижу ржу. Таки в длинных туториалах приколы\маты то что нужно))

    @ThisIsSpartaOriginal@ThisIsSpartaOriginal Жыл бұрын
  • Интересное дополнение, сначала я кропнул лицо или тело на исходных фотках дабы избавиться от лишних предметов, потом перевёл в формат 512,512 ,отключил бакетинг, все сеттинги как описано Хачатуром. Получилось неплохо, но потом в качестве эксперимента я настал их переводить в 512,512, а оставил в высоком разрешении и включил бакетинг, модель оказалась в разы лучше! По времени тренинга практически одинаково.

    @trendgiver@trendgiver Жыл бұрын
    • Подскажи пожалуйста, а в настройках менял разрешение или использовал конфиг файл от Хруста без изменений?

      @smiledurb@smiledurb10 ай бұрын
    • @@smiledurb В настройках у меня было стандартное 512 х 512. Я в последнее время вообще перешёл на lycoris, очень советую поэкспериментировать, там результаты порой получаются круче. Плюс я также заметил, что captioning, тоже играет немаловажную роль. И ещё, как и в случае нормальной лоры, если много картинок, то можно сократить колличество эпох.

      @trendgiver@trendgiver10 ай бұрын
  • Устанавливал строго по инструкции. В интерфейсе отсутствует вкладка "dreambooth Lora". Пробовал запустить training во вкладках "dreambooth" и "Lora" - процесс всегда прерывается ошибкой "returned non-zero exit status 1" . Перепробовал все способы и опции, указанные здесь в комментариях и на других форумах - ничего не помогло. Если кто знает решение - напишите, буду благодарен.

    @andrruta868@andrruta8687 ай бұрын
    • Так же фигня. Читал, что в память упирается, но у меня 3070 и в диспетчере не вижу, чтобы память вообще как-то расходовалась активно.

      @titaniMOZG@titaniMOZG3 ай бұрын
    • в "Pretrained model name or path" укажи свой путь к .safetensors (у меня при открытии папки с моделями .safetensors файлов небыло и я просто дописал его название) файлам, ибо у меня по умолчанию стояло вообще E:/... хотя у меня даже диска E нет. Надеюсь вам поможет

      @studiotrip9859@studiotrip98593 ай бұрын
    • Закройте консоль SD. Она занимает память. Одновременно две консоли SD и лора не должны работать.

      @pgwglassmail707@pgwglassmail7072 ай бұрын
    • Нужно в параметрах Optimizer поставить на AdamW, и Mixed precision на fp16, это более щадящие настройки для компа (для более слабых видюх), мб ты еще что-то неправильно поставил, но у меня были эти ошибки

      @user-wl6ut6uy2c@user-wl6ut6uy2cАй бұрын
  • Хачатур, ты просто неподражаем! Мне как фотографу да это прям супер!

    @user-zs7oh9zb8n@user-zs7oh9zb8n Жыл бұрын
    • если не секрет, а какие задачи подобный инструмент может решать для фотографа?

      @91Zahor@91Zahor Жыл бұрын
  • Лучший, спасибо большое)

    @user-sv4le7rz6e@user-sv4le7rz6e Жыл бұрын
  • I watch you alote and I really dont understand what are you saying in Russia, but understand the process, i only watch the mouse haha ty bro

    @itzpaco5539@itzpaco5539 Жыл бұрын
    • Same here, English subs would've been greatly appreciated

      @eyoo369@eyoo369 Жыл бұрын
  • Вопрос: после нажатия Train Model процесс бесконечно зависает на этапе "prepare tokenizer". Все настройки сделаны по руководству. Mixed precision и Save precision - bf16, т.к. видеокарта 2070 Super. WIN 10. В чем может быть ошибка?

    @candirsky@candirsky Жыл бұрын
    • такая же проблема( Если получится выяснить как решить - напишите пожалуйста

      @user-mo8ng7gq6n@user-mo8ng7gq6n Жыл бұрын
    • То же самое, только скачал, поставил как сказано, сверяясь с каждым шагом и зависает процесс . Возможно это свежий баг, до этого скачанная неделю назад версия работала, только результат фиговый получался, нерабочие модели получались, в то же время модели лоры на колабе все норм. Решил снести и поставить свежую портайбл версию и такая засада.

      @Viktor_Brig@Viktor_Brig Жыл бұрын
    • Отключение брандмауэра и антивируса так ничего не дало, думал может виснет от того, что не может до этого токенайзера достучаться из--за ограничения сети, но похоже дело не в этом. Да, при закрытии выдает на несколько секунд инфу, ютуб все комментарии трет, при малейшем подозрении на ссылку, поэтому попробую текстом прописать: prepare tokenizer Traceback (most recent call last): File "путь к ranpy точка ру ", line 196, in _run_module_as_main return _run_code(code, main_globals, None, File "путь к ranpy точка ру", line 86, in _run_code

      @Viktor_Brig@Viktor_Brig Жыл бұрын
    • Попробуйте поставить версию с гитхаба. Сейчас это сильно проще чем портабельная версия. Вообще SD так быстро развивается что такого рода проблемы выскакивают постоянно.

      @konstantintokar8085@konstantintokar8085 Жыл бұрын
  • Ты супер красавчик и мой кумир. Это так надо снимать видосы.

    @Dmitry_Max@Dmitry_Max Жыл бұрын
  • Спасибо! Для колаба обязательно запишите!

    @ulyssesdonquijotelol@ulyssesdonquijotelol Жыл бұрын
    • Готовченко 👏 boosty.to/xpuct/posts/987f6426-909a-4066-8429-8fd4f377728e?share=post_link

      @XpucT@XpucT Жыл бұрын
  • Всем привет!! ну вроде бы все сделал как на видео ..после удаления папки sample вылетает prepare tokenizer и процесс останавливается...Кто знает подскажите что это))))))

    @user-jn1wm1lf2v@user-jn1wm1lf2v Жыл бұрын
  • у меня работало нормально , но потом стало почемуто ошибка "A matching Triton is not available, some optimizations will not be enabled. Error caught was: No module named 'triton'" и время генерации на часы уходит помогите плиз. Короче, я выяснил в чем дело. Если запускать файл webui_Lora_only.cmd то тритон подключается и обучение сети идет быстро. если через вебуи.кмд - то время пипец какое большое и ошибка тритона.

    @CosmoDzen@CosmoDzen3 ай бұрын
    • Да, Хачатур этот момент не указал в видосе. Действительно разница огромная. Спасибо за то что написал в чём было дело

      @Kibermozgai@Kibermozgai3 ай бұрын
  • Спасибо большое, очень полезная информация для новичков!

    @escesc5315@escesc53154 ай бұрын
KZhead