Предварительно обученные word embeddings | Обработка естественного языка
Word2Vec, fastText и Navec на Python: используем предварительно обученные плотные векторные представления слов.
00:00 - Word2Vec в библиотеке Gensim
06:00 - Библиотека fastText
09:53 - Библиотека Navec
Colab ноутбук из видео - colab.research.google.com/dri...
Библиотека Gensim - radimrehurek.com/gensim/index...
Библиотека fastText - fasttext.cc/
Предварительно обученные векторные представления для 157 языков - fasttext.cc/docs/en/crawl-vec...
Библиотека navec - natasha.github.io/navec/
Проект реализуется победителем Конкурса на предоставление грантов преподавателям магистратуры благотворительной программы "Стипендиальная программа Владимира Потанина" Благотворительного фонда Владимира Потанина"
вКонтакте - vk.com/avsozykin
telegram - t.me/a_sozykin
Мой сайт - www.asozykin.ru
Мой канал с краткими и понятными объяснениями сложных тем в ИТ и компьютерных науках - / andreysozykincs
Прикольно, это я вовремя пришел, думал эти ролики давно были на канале. Наверняка автор использует ИИ для анализа комментариев )
Пока не использую. Но тема интересная, надо пробовать 😉
Имею опыт в программировании но нет опыта в машинном обучении, с ходу смотрел плейлист, показалось немного не ясным момент построения разных моделей те что плотные, но наверное потому что не очень внимательно смотрел, планирую все повторить.
Эта действительно очень сложная тема. В одном видео все подробности не рассказать, только основные идеи.
Спасибо, материал толковый
Пожалуйста!
В библиотеке "Наташа" нет вектора для "Илиасова" 😀
Да, к сожалению...
Для чего это добро вообще нужно? В общих чертах
Это подготовка текста к анализу с помощью нейронных сетей. Нейронные сети не могут работать напрямую с текстом, нужно переводить текст в цифровое представление. embedding как раз хорошее цифровое представление, на котором нейронки показывают качественные результаты. Как это делается, мы рассмотрим дальше в курсе.
Чтобы ChatGPT и подобные лишали людей работы, очевидно же 😀
@@user-co7wd3cv4x ааа, ну так еще даже понятнее)))