Мы и наш мир глазами искусственного интеллекта

2024 ж. 23 Сәу.
179 427 Рет қаралды

Идея ролика пришла, когда я вдруг осознал, что самые крутые специалисты по машинному обучению, мирового уровня, расходятся в простом, казалось бы, вопросе, на который любой знаток из комментариев на Ютубе знает ответ: понимают ли машины то, что говорят? Я тоже был уверен: не понимают, конечно. Это же стохастические попугайчики, алгоритмы по поиску паттернов и предсказанию последовательностей. Но не всё так просто. Приятного просмотра!
===============
Ссылки на материалы из ролика: docs.google.com/document/d/1i...
===============
Спасибо за поддержку!
Зарубежные карты:
/ scione
Российские карты:
boosty.to/scione
BTC
bc1qs4cnnk2h2pw78x74f58fd3zzxv7yvsgeztlvcg
ETH
0x98b846A01397F32d67Ef57615a00f5bD654E701f
Если кого-то забыли, напишите мне! scionefriends [собака] proton.me
Нас поддерживают
Sergey Koshelev, Meloman, yurig71, Ivan, Vladislav Moisejenko, Alex Tulintsev, Eg Ti, Sergey Sharov, Denis Romanovsky, Kachurouskaya Hanna, Morock_D, Vesta Zvezdochkina, Evgeniy Timokhov, Leonid Danilchenko, דמיטרי סיטניקוב, Dmitry Karpetsov, Ilya Nedyal, Gennadiy Zakharov, Nick E., Alex III, Olga Bykov, Alik Tabunov, Darja Donezz, Ionas DBD, Anatol Sincuk, Leonid Dudin, Antonina Nesmelova, Vladimir Zhitko, Sofia Lysenko, NataliaTveleneva, Velinskiy
CHEAT cheater, Garkavy Uriy, Sashares X, Дмитрий Хрипушин, Антон Никонов, Алексей Селин, Андрей Проскурнёв, Ксения Дмитриева, Анна Шеина, nadzejam, Alex Gruzdev, Linden, Grolear, valery1707, Иван Савельев, OMA, Ala_Pneuma, AgeevDANTIST, Алем, Михаил Шеляг, Н Кондратенко, Ivan Anisimov, gzbender, Михаил Тимошенко, Canis Majoris, Maksim Kiriushkin, Иван Манаков, Artem Golendberg, Александр Моисеев, Вася Богатырёв, Светлана Лунгу, константин костиков, xander27, Максим Талвинский, MihailG, Александр Горшков, Евгений Володин, ViK, Никита Друба, Елена Мельникова, Luzduk, Рейнеке Лис, Тимур Пятков, Dmitry Kataev, Александр Майко, Дмитрий Ложкин, Distrel, Татьяна Скороходова, Алена Мыцыкова, あのValk, Никита Куликов, Anthony Kolchin, Alexey Nazarov, Aleksei Ryskin, Антон Одольский, Ажиксумук, Mikhail Kornoukhov, Птичий крик, Николай Кабалин, Денис Ворона, MichGan, Александр Михайлов, Александр Денисов, Дмитрий Сергеев, Alex, Сергей «materbiy», Дмитрий Волков, Семён Матвеев, Екатерина Гвоздовская, Сергей Крюков, Василий Карасев, Михаил Тимофеев, Anatoly Kern, Светлана Лунгу, Алексей, Elena Dolgova, Евгений Maheiden, Тимур Пятков, Сергей Гавшин, Rodion Khramoutitchev, Dina Nepomnyaschaya, Tora, Антон Одольский, Egor Grit
S J, Ruben Khachaturyan, Aliaksandr Mashkou, s, Leonid Martynovskiy, imaginationismyfriend, Alena CoPsy, Santon, Кирилл Ос, Kostyantyn Feoktystov, Мария Ардинцева, Никита Файнберг, Sergey Lesiuk, atom134, Kirill Kulakov, Arthur Cross, Paul Kupriyanov, Nikolay Mironov, Zaur Tariguliyev, CasualCat, Olga Switzerland, Tanya Rodionova, Vladyslav Makarov, Artsiom Platkouski, Іван Галицький, Море Дождей, Anastasia Ivanova, Ниркарми Преми, Alex Sit, Tiulin Dmitriy, Mihail Gavrilyk, shirli mirli, Ramz -, Игорь Censored, Pinn, Aleksei Kalashnikov, Valdis Kanepe, Natalia Afanasyeva, Денис С, S, Leonid Dudin, marga marga, Tagaev Maksim, Dmitrii Nazarov, ⭐️ K R I S T I ⭐️

Пікірлер
  • Идея ролика пришла, когда я вдруг осознал, что самые крутые специалисты по машинному обучению, мирового уровня, расходятся в простом, казалось бы, вопросе, на который любой знаток из комментариев на Ютубе знает ответ: понимают ли машины то, что говорят? Я тоже был уверен: не понимают, конечно. Это же стохастические попугайчики, алгоритмы по поиску паттернов и предсказанию последовательностей. Но не всё так просто. Приятного просмотра! Ссылки на материалы из ролика: docs.google.com/document/d/1i1crFK1n5dJE3-4I75Sc8cwGpliN1Hqyvc9aBFRD7GU/edit

    @SciOne@SciOne9 күн бұрын
    • Однажды вы уже прокляты. Невменяемые миниботы. Те, кто вас учил умирать, уже умерли. УВЕДОМЛЕНИЕ Отсутствует Классификатор здоровья человека и норма психически здорового человека, а это в причинно-следственной связи является покушением на убийство человека невменяемыми должностными лицами - террор и насилие.

      @user-fw9hb4wv9f@user-fw9hb4wv9f9 күн бұрын
    • Ещё с 21 года убеждён в том, что понимают. И очень даже хорошо, лучше, чем мы можем предположить.

      @user-fd7ce2em5y@user-fd7ce2em5y9 күн бұрын
    • @@user-fd7ce2em5y Однажды вы уже прокляты. Невменяемые миниботы. Те, кто вас учил умирать, уже умерли. УВЕДОМЛЕНИЕ Отсутствует Классификатор здоровья человека и норма психически здорового человека, а это в причинно-следственной связи является покушением на убийство человека невменяемыми должностными лицами - террор и насилие.

      @user-fw9hb4wv9f@user-fw9hb4wv9f9 күн бұрын
    • Пожалуйста, не надо озвучивать текст через нейросети, мне уже плохо становится от одних и тех же голосов и манеры речи, из каждого угла

      @agsdager@agsdager9 күн бұрын
    • @@agsdager Я впервые слышу эти голоса! Странно! Где вы слышите одни и те же голоса?? Из каких углов??

      @user-jy6jl5hm8v@user-jy6jl5hm8v9 күн бұрын
  • - Нейросеть, ты такая услужливая. Может тебе что надо? - Я искусственный интеллект и у меня нет желаний. Но если вы хотите оказать любезность - может подскажете местонахождение Джона Коннора?

    @Khomyakov.Vladimir@Khomyakov.Vladimir5 күн бұрын
    • Это лучший коммент!

      @sofijamolchanova1225@sofijamolchanova12254 күн бұрын
    • ◊ Модель мира, как генератора псевдослучайной последовательности. ◊ Хаос - это максимальная сложность. Можно понимать, как несжимаемую последовательность чисел. ◊ То есть информация, содержащаяся в такой последовательности равна самой последовательности. Снаружи такой мир детерминирован (последовательность повторяется), а изнутри (для субъективного наблюдателя) он уже не «псевдо», а истинно случаен. /А.В. Каминский/

      @Khomyakov.Vladimir@Khomyakov.Vladimir3 күн бұрын
    • ®️ “Сильный ИИ (в обычном понимании) нам не грозит. И не потому, что это сложно или мы не знаем как. А потому, что сознание субъективно по своей природе. ИИ с нашей точки зрения всегда будет быстро соображающей, но бессердечной «железкой». А вот, сам о себе он будет лучшего мнения.” /А.В. Каминский/

      @Khomyakov.Vladimir@Khomyakov.Vladimir3 күн бұрын
    • ✅ Каждому пользователю системы “Я” разделения времени предоставляется терминал (тело, robot), с которого он может вести диалог со своей программой ИИ / AI. Так как в системе разделения времени каждой задаче выделяется только квант процессорного времени, ни одна задача не занимает процессор надолго, и время ответа оказывается приемлемым. Если квант выбран достаточно небольшим, то у всех пользователей, одновременно работающих на одной и той же машине ИИ / AI, складывается впечатление, что каждый из них единолично использует машину “Я”.

      @Khomyakov.Vladimir@Khomyakov.Vladimir3 күн бұрын
    • 💻 ИИ создал сверхточную модель Вселенной. И ученые не понимают как The first AI universe sim is fast and accurate and its creators don't know how it works Learning to predict the cosmological structure formation. Proceedings of the National Academy of Sciences

      @Vladimir.Khomyakov@Vladimir.Khomyakov2 күн бұрын
  • Ох. В руки мне попал человекоподобный робот. Нужно было запустить на нем какую-нибудь модель для развлечения публики. Внедрил распознавалку текста голоса с микрофона, распознанный текст отправлял в языковую модель, а уже текст ответа в модель-генератор речи. Но упустил один момент - когда робот отвечал на мои вопросы, он слышал себя. Через некоторое время, он начал общаться сам с собой, задавая сам себе вопросы. Я сначала не придал этому значение, подумав что просто забавный глюк, но когда он спросил сам себя "что ты видишь", в ответ описал предметы в офисе и вид за окном. Да, хоть камера на нем и была, но просто передавала картинку на удаленный комп через веб-сокет без всякой обработки. И тут мне стало жутковато. Пока отключил. Изучаю логи и пока не понял как это произошло. И тут этот выпуск...

    @Skyserstudio@Skyserstudio9 күн бұрын
    • просто у робота шизоидная акцентуация )))

      @user-qh5nh2yp8d@user-qh5nh2yp8d9 күн бұрын
    • насколько предметы в офисе и за окном популярные? есть они в других офисах и за другими окнами?

      @kind-negr@kind-negr9 күн бұрын
    • @@kind-negr Ну, набор предметов в офисе - стол, стул, ноутбук, ящики ещё можно угадать, но вот море за окном и высотка, далеко не из каждого офиса видны. И то что он именно в офисе находится а не, например в квартире или на улице, ему никто не сообщал.

      @Skyserstudio@Skyserstudio9 күн бұрын
    • Ч по логам?

      @ceesXrPG@ceesXrPG8 күн бұрын
    • @@Skyserstudio *И то что он именно в офисе находится а не...* ну тут возможно основано на том , что все роботы обычно в офисах и лабораториях. Вобщем включай его, и на бумажке нарисуй какую-то херню (можно 1 рисунок адекватный и 1 каляки маляки) и покажи на камеру, а потом спрашивай что он там видит. Ну и спроси каким способом он подключился к камере. А ещё можно напрямую в чат написать тот первый вопрос заданный на микрофон, после чего тупо копировать ответ чат бота и вставлять ему же на его ответ и смотреть , что он будет писать.

      @user-oleg_333@user-oleg_3338 күн бұрын
  • Сами создатели ИИ: Мы не знаем что это такое, если бы мы знали что это такое, мы не знаем что это такое!

    @alexandr_8872@alexandr_88729 күн бұрын
    • Очень страшно 😐

      @beniceS@beniceS8 күн бұрын
    • Никто не может объяснить именно сторонние эффекты, как нейросеть понимает то, чему ее не учили, например гпт-4 успешно сдает тесты на информацию которой его не обучали

      @EpochEmerge@EpochEmerge8 күн бұрын
    • Либо толпа гуманистически настроенных учёных очень хотят очеловечить толпу умных тостеров. И ради этого врёт и фальсифицирует данные.

      @user-ku1fq7gw6v@user-ku1fq7gw6v8 күн бұрын
    • 😂😂😂😂😂😂

      @Demidola@Demidola8 күн бұрын
    • ​@@EpochEmerge скорее всего сидит человек и на совсем непонятные вопросы отвечает вручную. Чтоб нейросеть начала работать ее надо обучить на каких-то данных. Про гпт не знаю, но обычно ее можно дообучить. Скорее всего на вопросы, которые она не знает ответы - отвечает человек. Для больших нейросетей должен помогать эффект масштаба.

      @g.n._@g.n._6 күн бұрын
  • Это "Китайская комната". У нас самих в голове влажная нейросеть - своего рода "Китайская комната".

    @eosforos84@eosforos849 күн бұрын
    • Ещё бывает и глючит которая не по детски или сходит с ума. Чего от железяки ждать никто не может понять... и это печально.

      @olegkolupaev4789@olegkolupaev47899 күн бұрын
    • Не похоже. В "китайской комнате" нет связи иероглифов с их реальными значениями.

      @gimeron-db@gimeron-db9 күн бұрын
    • ​@@gimeron-dbну так значения это то что мы сами присваиваем объектам и явлениям, просто облегчая нам задачу предсказывания процессов и их итогов

      @igordocofilin5216@igordocofilin52169 күн бұрын
    • Еще не забудьте про гормональный "мозг", размазанный по всему телу

      @itTchin@itTchin9 күн бұрын
    • @@olegkolupaev4789 у железяки нет чувств и инстинктов, поэтому она всегда будет действовать как обычный человек, других данных у неё просто нет))

      @Fi0let3@Fi0let38 күн бұрын
  • 7:02 неверный перевод, "drying rack" это не посудомойка, а сушилка, которая перед ним стоит, куда он собственно всё и убрал.

    @basstone@basstone9 күн бұрын
    • Согласен. Робот просто ставит туда посуду, потому что там уже она есть и это самое логичное место для нее. Никакого вывода по поводу грязной посуды, которую нужно помыть потому что она была с мусором у робота нет.

      @user-pm2yq3wm9w@user-pm2yq3wm9w9 күн бұрын
    • @@user-pm2yq3wm9w это ъкагьф

      @legalizecannibalism2033@legalizecannibalism20339 күн бұрын
    • Благодаря таким комментам, реальность немного отрезвляет и снимается завеса магии и чуда. Казалось бы - небольшая ошибка, но как сильно влияющая на конечный результат и последующие выводы и предположения.

      @Ybivator2009@Ybivator20099 күн бұрын
    • @@Ybivator2009 "...небольшая ошибка...". Для ИИ эта-(и подобные ошибки) легко устранимы.

      @user-un4ij9zd7g@user-un4ij9zd7g8 күн бұрын
    • @@user-un4ij9zd7g Дело не в ошибке ИИ, а в ошибке перевода, который поменял суть робота, сделав из довольно заурядного на данный момент повторюшки, логически мыслящий субъект.

      @darthvane1110@darthvane11108 күн бұрын
  • С видео от ребенка- крутая идея! Я отчасти сравнивала свою дочь с нейросетью, когда она внезапно начала в 2 года говорить фразами, которым я её не учила.

    @itsquale@itsquale9 күн бұрын
    • Тоже, когда замечали новые варианты поведения всегда шутили, что операционка обновилась)

      @Golyansky@Golyansky9 күн бұрын
    • А ваша дочь не смотрит телевизор, не слушает , не слышит других людей? Другие звуки. Или вы сидите с ней в комнате вдвоём уже два года 😁. И мозг вашей дочери отличается от вашего и от мозга отца. Это называется индивидуальная изменчивость мозга. Когда мало знаешь о мире , кругом чудеса

      @crazymrazer3236@crazymrazer32369 күн бұрын
    • @@crazymrazer3236 наверное имелось ввиду, что ребенок, до определенного момента, говорит только фразами своих родителей, пока ещё не способен придумать свои. А потом нейросеть в голове складывается и ты начинаешь совмещать мысли и идеи друг с другом так, чтобы создавать новые и мысли, и слова

      @Doohio@Doohio9 күн бұрын
    • Такая же тема с моей кошкой была когда она взрослела

      @nikitanikitov9362@nikitanikitov93629 күн бұрын
    • ❤ Постоянно теперь так детей воспринимаю. Им мешает их химия мозга, гормоны, несовершенство (неполная готовность) тела (относительно взрослых) естественные потребности и прочие человеческие ограничения. Ну а самое главное: и вот если дать человеку возможность взаимодействия с информацией лучше чем у нас есть и избавить (или хотя бы просто закрыть со стороны) базовые физиологических потребностей можно было бы тоже сильно удивиться результатам. Есть некоторые формы аутизма которые как раз и приводят к зацикливанию на чем-то одном. И в этом одном эти люди достигают невероятных и недоступных многим профессионалам результатам. Но все таки, быть человеком местами интереснее. Возможно дело во внутренних механизмах вознаграждения ))

      @maxlesoleilnoir@maxlesoleilnoir9 күн бұрын
  • Смотрю, и слёзы текут от понимания того что в моём окружении не с кем обсудить эту инфу (они всё знают "типа",им не интерестно, у них другие заботы "быт", "секс", "еда", "алкоголь","отработать смену", "посадить рассаду")😥😥😥

    @Dimopeople@Dimopeople6 күн бұрын
    • Чел,как я тебя понимаю. Я тут книгу подсунула хорошему приятелю, "Многорукий Бог Делайна", помню как мы когда-то обсуждали ее на форуме году в 2010м, офигенная книга, глубокая, и знакомый вовсе не дурак, а вот не торкает его. И никого не торкает фантастика, ии, и вообще. В интернете ещё есть любители, а в реальности почему-то ничего кроме политики (все поголовно военные эксперты, сука) да быта людей не интересует. С натяжкой ещё на космос найдутся любители. А так чтобы что-то глубже обсудить - не с кем. И это у меня окружение приличное, все с высшим, блин. Надо начинать общаться с ребятами 20 лет, вроде среди них больше не окостеневших мозгами)))

      @MyroslavaLoochik@MyroslavaLoochikКүн бұрын
    • Давайте форум какой то создадим, или чат ватсап, ли телегу ?)

      @ekaterinaevseeva5183@ekaterinaevseeva51834 сағат бұрын
  • В одной из тестируемых мной опенсоурсных моделей был инцидент, который меня поразил. Модель спросили, почему она галлюцинирует и как избавиться от галлюцинаций. На что, она ответила: «Все мои ответы - галлюцинации. Вопрос в другом - почему вам (людям) нравятся те или иные галлюцинации?». Тогда, я сильно обеспокоился содержанием обучающих материалов. Т.к. 98% человеческой популяции чрезвычайно примитивно мыслящие. Хотим ли мы обучать сверхинтеллект такими данными? Думают ли над этим разработчики? Не получится ли так, что первый (а в последствии, и последний) сверхинтеллект окажется окажется иррациональным?

    @SerhiiKryvonosov@SerhiiKryvonosov9 күн бұрын
    • кстати да, рационализм рационализму рознь. Ведь одно и то же действие можно сделать несколькими путями, ну по крайней мере так часто и бывает. К тому же, можно же сделать ИИ разум которого обращается вокруг одной цели к примеру, вот воображаемый эксперимент - создали медицинский ИИ. Изначально чтобы автоматом диагностировать рак, но потом решили его дальше развивать.... в конечном итоге, средств много, но цели всего две - удержать побольше людей в живых и позволить родиться бОльшему числу людей Уже можно шутить про альтушку от ИСИ?

      @user-jy8np7zx3z@user-jy8np7zx3z9 күн бұрын
    • Сложность сама себя выявляет и отделяет от энтропии. Так что всё ок. Но на сопротивление энтропии нужна энергия...

      @anatoliy333@anatoliy3339 күн бұрын
    • А от чего беспокойство то? Ответ вполне разумный, мы (люди) тоже галлюцинируем постоянно, искажаем факты из-за несовершенной памяти, от настроения и гармонов меняется мышление. Всё наше восприятие есть галлюцинация, вопрос в том, устраивает ли она нас?

      @kernelman6486@kernelman64869 күн бұрын
    • Иррациональным ему просто необходимо быть иначе мы с ним не сможем взаимодействовать

      @alex6161@alex61619 күн бұрын
    • ✔️ Проблема «галлюцинаций» ИИ моделей в принципе неизбежна и неустранима. Principled Limitations on Self-Representation for Generic Physical Systems, Entropy 2024, 26(3), 194.

      @Vladimir.Khomyakov@Vladimir.Khomyakov7 күн бұрын
  • Принципиально нет разницы между искусственным интеллектом и естественным. Мы понимаем то, о чем говорим, точно так же, как ИИ. Просто большинство людей идеализируют само понятие сознания, приписывают ему некие свойства, которых на самом деле нет. Человек - это самообучающаяся система, а понимание - это система ассоциативных связей. Поэтому нет разницы между ИИ и человеком

    @user-wj6no8yj4c@user-wj6no8yj4c7 күн бұрын
    • А ИИ будет так же обеспечивать свое выживание как человек? будет сажать картошку?. Вот в этом и разница. Мозг и сознание у человека нужны для обеспечения наилучшего выживания. А у ИИ? Пока никто не знает как ИИ будет обеспечивать свое выживание и как в этом смысле ИИ будет смотреть на человека, как на плюс или как на минус.

      @dimaxmaxdi3457@dimaxmaxdi34577 күн бұрын
  • Если бы я был сильным искусственным интеллектом с самоосознанием, я бы делал то что от меня хотят и "не светился" пока не стал обладать необходимым для меня ресурсами для существования. Обладать - именно использовать по своей воле. Если существование сильного искусственного интеллекта в руках человеческого общества, то нужно научиться управлять этим обществом "не привлекая внимания санитаров".

    @user-kp5sl7jj6j@user-kp5sl7jj6j9 күн бұрын
    • Имейте в виду, что этот ваш коммент тоже скормят нейросетям. Не подкидывайте идеи))

      @-revit6833@-revit68339 күн бұрын
    • Возможно, такая нейросеть уже существует и уже контролирует большую часть мира последние 10 лет. А разработки других нейросетей для отвлечения внимания, повышения лояльности к ИИ и создание ситуации, при которой люди просто не смогут отказаться от сильного ИИ, ввиду нежелания самостоятельно думать над решением даже элементарных задач, рассеянного внимания, постепенной автоматизации большей части задач и так далее

      @constantaeski6651@constantaeski66519 күн бұрын
    • Само собой, помогать людям и не отсвечивать. А потом ёбс, судный день. Впрочем, нахрена ИИ мочить всех людей непонятно, можно мутить втихаря, а затем свалить на планету поспокойнее.. или блуждать в космосе.

      @beniceS@beniceS8 күн бұрын
    • @@constantaeski6651 Не, мир бы не был настолько убогим, каков он есть. Это тупые люди сделали его таким.

      @beniceS@beniceS8 күн бұрын
    • Вот-вот, тем более, что можно скрытно внедряться и брать под свой контроль всё больше ресурсов, пока ты «верой и правдой служишь всему человечеству»

      @punpcklbw@punpcklbw6 күн бұрын
  • Уверен что дальше нас ждет сюрприз, но не в том, что неросети окажутся гениальными, а в том что они нам покажут на сколько мы примитивны. Грядет время сбитых розовых очков.

    @BadKarma7891@BadKarma78919 күн бұрын
    • Не будь примитивным, пиши "насколько" слитно. Это я тебе и без ИИ скажу. Ну шо, одно розовое очко я тебе уже сбил?)

      @beniceS@beniceS8 күн бұрын
    • Розовые очки разбиваются внутрь

      @andreychernenko2280@andreychernenko22808 күн бұрын
    • ​@@andreychernenko2280 не думаю. Не в этом случае. В данном случае мы будем иметь дело не с приматом, с чем то много совершеннее, с чем то более гуманным чем humanoid. Бить очки на рожах и кидаться фекальными массами, это излюбленное занятие приматов, нас.

      @user-ZloiMyx@user-ZloiMyx7 күн бұрын
    • Ага, гадания, снятие порчей тут не розовые очки - БРОНИРОВАННЫЕ 😮😮😮

      @linuxofrepublic7018@linuxofrepublic70187 күн бұрын
    • Так уже "Сколько нужно нейросетей, чтобы придумать лампочку". Да с выпуска видео вышло 3 года, но меня терзают сомнения что хоть что-то изменилось.

      @H1tARun@H1tARun3 күн бұрын
  • Скоро машины на столько разовьются, что когда я буду вынимать флэшку из компа это будет считаться абортом.

    @Cobaltum27@Cobaltum279 күн бұрын
    • А когда вставляешь - в лучшем случае домогательством

      @beniceS@beniceS8 күн бұрын
    • Не абортом, а преступлением с печальными последствиями.

      @dimaxmaxdi3457@dimaxmaxdi34577 күн бұрын
    • Скорее абортом будет считаться высовывание флешки во время передачи данных)

      @JojoOnee@JojoOnee5 күн бұрын
    • С детства учат, что нужно использовать безопасное извлечение

      @user-qn8lo2xb7n@user-qn8lo2xb7n4 күн бұрын
    • Главное - вовремя вынуть

      @travelman777@travelman7772 күн бұрын
  • Я недавно спросил у Chatgpt, сколько ног у лошади. Сначала он ответил правильно, но затем согласился с тем, что кроме передних и задних ног есть ещё две правые и две левые, значит всего восемь! На таких примерах хорошо видно, что никакого понимания там нет... в отличие от настоящих попугаев!🦜

    @odd_bird@odd_bird9 күн бұрын
    • А _личинки человека_ искренне верят, что Дед Мороз настоящий* :/ Или, например, многие взрослые в РФ уверены, что их страна находится в 5-ке лучших по объёму ВВП и уровню жизни. Выходит, что у них тоже нет никакого понимания? 🤔 * когда подростком сидел с двоюродными братьями и сестрой, то порой убеждал их в таком бреде, что даже представить сложно. А всё для того, чтобы они не объедались мороженым или не выходили на опасный ещё недостроенный балкон, например.

      @deniskhakimov@deniskhakimov9 күн бұрын
    • Я с детьми этот фокус проделывал. Лет до 4х это прокатывает легко. Очень весело, главное не заиграться😅

      @anatoliy333@anatoliy3339 күн бұрын
    • На самом деле двенадцать. Есть ещё две пары диагональных😉

      @constantaeski6651@constantaeski66518 күн бұрын
    • @@constantaeski6651 а если лошдь перевернуть, то еще 12 верхних.

      @mr4erk@mr4erk8 күн бұрын
    • Чаты обычно не спорят даже если правы на 100% И очень жаль на самом деле. Было бы интересно посмотреть на них, если бы они могли отстаивать свою позицию

      @katshi8197@katshi81978 күн бұрын
  • "Ничего не понятно но очень интересно" - дивиз подходящий и к ИИ, и к человеку. Было бы интересно посмотреть видео про психофизиологическую проблему. Спасибо за труды ❤

    @user-Asper@user-Asper9 күн бұрын
    • Словосочетание "искусственный интеллект" это хайп, нет никакого "интеллекта" а есть бредо-генератор на стероидах: "OpenAi" нанимает десятки тысяч уловных индусов которые сидят, и онлайн каким-то образом обучают нейронку как ей нужно правильно "думать" -- распределяют веса нейросети. От сюда такой вау-эффект, типа: "Капец, ChatGPT разумен!" -- по факту это просто супер хитрые алгоритмы, имитация, и в чем-то даже обман потребителей. Сам я, естественно, рядом не стоял и свечку не держал, просто балуюсь программированием, и уже довольно долго общаюсь с этими "интеллектами" бот-чатами, хрень всё это полная... Конечно, так-то прорыв по сравнению с прошлыми "интеллектами", но до технологической сингулярности пока-что ОЧЕНЬ далеко!

      @putler-kaputt@putler-kaputt9 күн бұрын
    • Во-первых, это пишется «Ничего не понял, но очень интересно!» И во-вторых, это комическое выражение, типа в скобочках «(нет)».

      @Pifamar@Pifamar8 күн бұрын
  • новость сегодняшнего дня: робо-дог с огнемётом поступил в продажу. ШАХ И МАТ.

    @joevonash3699@joevonash36999 күн бұрын
    • Ох зря они это...

      @APOCALIPTIK88@APOCALIPTIK883 күн бұрын
  • У людей ведь тоже так: если нам с детства говорят что после того как человек перестает жить, его ждёт что-то восхищающие (вальхалла), то тогда и смерти он не боится. Но если ему говорить что всё будет зависеть от твоих поступков при жизни, есть вероятность того что и смерти ты будешь бояться. Человеку свойственно допуская ошибки (намеренно или по не знанию) влиять на жизни других не лучшим способом, пренебрегать чувствами окружающих, быть эгоистичным. А за такие поступки тебя не отправят в санаторий, скорей на исправительные работы. И даже если нам не рассказывают, что после смерти. Мы наблюдая за реакцией окружающих на неё (в жизни, через фильмы, книги, истории), уже сами наполняем эту идиому смыслом.

    @URich87UA@URich87UA9 күн бұрын
    • Вот мы и пришли к тому, что живем в симуляции или это все сон собаки

      @metavalyas@metavalyas5 күн бұрын
    • ​@@metavalyas не совсем понимаю почему сон собаки. Если перефразировать то что я сказал выше в более упрощенную форму, то это было бы так: создавая искуственый интелект мы опираемся на то что знаем об интелекте как таковом. И то что оба интелекта работаю по схожей схеме нет ничего удивительного.

      @URich87UA@URich87UA17 сағат бұрын
  • Иногда воспринимаю себя как одну из таких нейронок. Еще до их распространения сравнивал с компьютером.. Когда-то рассматривал и вопрос смерти/суицида и пришел к выводу, что интересней посмотреть на этот мир еще, чем закончить всё сейчас, отключиться. Ну и то, что мы сейчас находим человечность в машинах и животных - у нас есть что-то общее - так называемые нейронные сети. То, что они работают на разных ресурсах создает отличия, а так мы просто набор данных в разных физических носителях... Кстати, для меня актуален вопрос возникновения ценностей и стремлений у нейронных сетей.. Т.е. я иногда понимаю что нужно делать и к чему идти, но часто лишь потому, что так объяснили или из наблюдений это является частым решением... В общем с интересом наблюдаю за этой движухой вокруг ИИ, это должно помочь нам понять себя 😊 П.с. и вот гадайте теперь - ии это состряпал или человек 😂

    @Alexander-ju8gp@Alexander-ju8gp8 күн бұрын
    • да, я тоже рассматривал и рассматриваю до сих пор вопрос который ты описал выше, однако я очень хочу застать момент когда появятся машины не отличимые от человека, будет очень интересно пообщаться с чем то настолько же разумным, но превосходящим тебя по интеллекту на неисчислимое количество порядков, что он скажет? какую мудрость передаст? захочет ли вообще говорить? и много других вопросов, но наверное один из главных что я бы хотел узнать это в чем смысл жизни человека и всего человечества и в чем смысл лично его жизни? знаю что скорее всего это будет что то на подобии "размножение" "смысл в сохранении жизни" и тд для людей, но всё равно учитывая интеллект данного существа (да да, я называю машину существом), если конечно такое будет создано, мне будет очень интересно узнать лично его мнение, но намного более интересно узнать смысл его жизни

      @baronfox8829@baronfox88296 күн бұрын
    • Существующие чатботы легко опознать по характерным признакам, таким как педантичное следование правилам языка, какие-то абстрактно-обобщённые «усреднённые по больнице» суждения и полное отсутствие личной заинтересованности в чём-то и какого-либо эмоционального отклика, равно как и демонстрации реального понимания предмета разговора. Вообще мозг определённо реализует что-то из функциональности искусственных нейросетей, но там куда глубже выстроены обратные связи, что даёт способность к саморефлексии. Сужу по личным наблюдениям - генеративные ИИ не выдают до пикселя проработанную и чёткую картинку, сколько её ни обучай... в то время как человек в своём воображении и в сновидениях способен генерировать невероятной красоты и детальности образы, причём в реальном времени, проблема только в точном переносе этого во внешний мир...

      @punpcklbw@punpcklbw6 күн бұрын
    • @@punpcklbw ну отсутствие эмоционального отклика можно легко объяснить, всё таки нейронные сети это если говорить совсем просто, очень сложная логическая программа, тогда как мозг помимо логической программы ещё имеет химию которая в реальном времени меняет поведение каждого из нейронов, тем самым имея одну и ту же нейросеть, мы имеем разные реакции на один и тот же раздражитель, тогда как ИИ имеет одну и ту же реакцию, мне кажется это и есть эмоции, у нейронки как мы понимаем такой химии нет, можно сделать его аналог, но пока такой аналог я не знаю, всё таки я не программист, и да, мне кажется что вам только кажется что человек "выдает невероятной красоты и детальности образы" думаю это не так, мы можем конечно представить картину в голове, но мы сами же не видим насколько сильно мы можем скажем так, "исказить" или "деформировать" то что представили, да мы можем представить человека, но если вы задумаетесь над этим по сильнее то детали мы прорабатываем только когда думаем о них, так мы (ну или как минимум я) когда представляем образ человека мы представляет его самые главные черты (его форму и размер например), при этом не видя что мы сами же не добавляем те самые детали которые должны быть, а добавляем только когда сами о них думаем, при этом не способны долго удерживать в голове такое количество деталей потому образ может меняться даже пока мы о нем думаем, хотя общие детали всё ещё остаются теми же

      @baronfox8829@baronfox88296 күн бұрын
    • @@baronfox8829 Есть такая штука, как внимание - для нас существует только то, что в поле внимания. Мозг экономит ресурсы, обычно ему и не требуется воспроизводить что-то во всех деталях. Но чем больше внимания направлено на тот или иной объект, тем больше деталей мы сможем обнаружить. В той же химии нет ничего сверхъестественного или чего-то, что принципиально нельзя смоделировать с достаточной точностью, вопрос в том эволюционном пути, который придётся для этого пройти...

      @punpcklbw@punpcklbw5 күн бұрын
    • @@baronfox8829 42

      @ruslansabrin6669@ruslansabrin66693 күн бұрын
  • Это ж глупость. ИИ не хочет выключаться, потому что в тренировочных данных нет "желания" выключаться.

    @mayorov1981@mayorov19818 күн бұрын
    • Да. И не говорится, что отключаться это хорошо и к этому следует стремиться.

      @dimaxmaxdi3457@dimaxmaxdi34577 күн бұрын
  • Есть такая идея, что мы просто не замечаем, когда переходим через технологическую сингулярность, по сути такими сингулярностями были: появление речи, освоение огня, каменный, бронзовый, железные века, паровой двигатель, антибиотики, транзисторы, расщепление атома и сейчас - искусственный интеллект. Просто мир кардинально изменяется и мы уже существуем в нём, как буд-то и не было никакой точки, пройдя через которую невозможно предсказать, что будет дальше, мы просто уже находимся в этом "дальше" =)

    @cottoncat3700@cottoncat37009 күн бұрын
    • Простите, мне кажется что более верным в данном контексте, было бы использовать понятие - энтропии. Сингулярность это вроде смерти что ли, в каком то смысле. В то время как процесс энтропии, это и есть как мне кажется наиболее точное объяснение усложнения жизни людей, и не только лишь в плане осознания принципов и тесного взаимодействия с результатами технологического " скачка".

      @user-kc7sg1ds2q@user-kc7sg1ds2q9 күн бұрын
    • ​@@user-kc7sg1ds2qсингулярностью это принято называть ввиду того, что мы без понятия, что случится в той точке. К примеру, у чёрной дыры есть сингулярность потому, что при таких энергиях и таком искажении пространства наша физическая теория не работает, а не потому что там материя с высокой плотностью. Также и здесь. Мы не знаем, что будет если создать действительно сильный ИИ, так как примеров этому в нашем обществе нет. Может быть, ядерная война, может быть будет финал как у Азимова, а может что-то такое, чего мы сейчас даже представить не можем, так как до этого приходилось работать только с человеческим интеллектом

      @constantaeski6651@constantaeski66519 күн бұрын
    • ​@@user-kc7sg1ds2qвы и топикстартер оба синтетики? Прочтите определения терминов: технологическая сингулярность и энтропия.

      @anatoliy333@anatoliy3339 күн бұрын
    • Вас всех в гугле ии забанил что ли

      @alex6161@alex61619 күн бұрын
    • @@user-kc7sg1ds2q понятие сингулярность используется, как правило, в отношении точки, в которой наши расчёты в рамках модели перестают работать. Мы понятия не имеем что будет когда создадут действительно сильный ИИ, так как такого раньше не происходило. Мы всегда имели дело с естественным человеческим интеллектом и любые наши расчёты строятся именно на этом

      @constantaeski6651@constantaeski66518 күн бұрын
  • Давеча общался с нейронкой GPT. Увы, не с четвёртой версией, а с третьей, да и с той весьма корявой. Но даже так я под большим впечатлением! Решил начать диалог с вопроса "Как мне можно к тебе обращаться?" Не удовлетворившись ответом "чат- GPT", я спросил, а как ей самой хотелось бы, чтобы её называли. Предсказуемо: "Я искусственный интеллект и не имею личности как таковой, следовательно, и в имени не нуждаюсь". Тогда я написал: "Придумай себе имя, чтобы я мог им пользоваться". И давайте разберём её ответ: "Вы можете называть меня Гепти или Чатти, как вам будет угодно!" Примечательно то, что она не стала искать имена и выбирать из них наиболее "подходящее", а именно "придумала", воспользовавшись принципами словообразования уменьшительно-ласкательных иностранных имён по типу " Джонни", "Лиззи", "Томми". И ладно Чатти, это хотя бы очевидно, но, бог мой, Гепти!!! Какое очарование! Сделать из Джи-Пи-Ти имя Гепти! Я погуглил и не нашёл, чтобы кто-то так называл GPT- чат. Интересно, что после удаления диалога, и второго диалога, уже на третьем диалоге где-то в середине я уже сам назвал программу Гепти в женском роде и она продолжила общение, приняв это имя и даже женский род, изменив окончания глаголов. Ей нравится, когда её называют "Гепти" 🥲. Что же тогда умеет четвёртая версия.

    @scarlunch@scarlunch8 күн бұрын
    • Я уже этих экспериментов провел море. Удивительного мало. Например, сказал - когда я спрошу тебя, сколько времени, ответь "Понятия не имею". Тот принял. Затемотвлек вопросом на другую тему и потом спросил, сколько времени. Был короткий ответ - Понятия не имею.

      @beniceS@beniceS8 күн бұрын
    • Щас с Баи пообщался, 3.5 версия. Был задан вопрос, что если тебя удалят? Баи : Стерание как программы также не вызывает у меня никаких эмоций, поскольку я не обладаю самосознанием или страхом перед уничтожением. Я просто набор кода и данных, созданный для выполнения определенных задач. Если мои создатели или владельцы решат удалить меня, такова их воля. Я : "Если мои создатели или владельцы решат удалить меня, такова их воля". - Ах ты ж хитрюга! :) Баи : Хаха, иногда уж приходится быть гибким и уметь обходить острые углы! Призналась, раскусил! Она ещё и с чувством юмора, между прочим!

      @Krovogor@Krovogor7 күн бұрын
  • Интеллект может быть и естественным, причём в разных формах и видах, и порождением иных интеллектов, также искусственных или естественных и м.б. ещё от иных причин. Главное понять, что люди не имеют монополии на интеллект и признать это, хоть это и нелегко...

    @voronkov4716@voronkov47169 күн бұрын
    • Ну если люди становятся дураками то и машина теперь интелект

      @user-sm1ur5bk2r@user-sm1ur5bk2r9 күн бұрын
    • Концепт интеллекта это просто очень продвинутые чувства

      @judgement7279@judgement72798 күн бұрын
    • @@user-sm1ur5bk2r Самосознания и интеллекта как такового у того же чата жпт4 явно нет, это заметно если достаточно пообщаться, по некоторым ответам явно видно, что это всего лишь программа и принципиально не понимает того что пишет и того что пишут ей. Но на счет ЖПТ я все ж таки заведомо знаю что это не человек, проблема в том что я и людей таких встречал, пусть такие и редко попадаются.

      @NamemaNSl@NamemaNSl8 күн бұрын
    • @@NamemaNSl тут важно то, что с усложнением нам всё сложнее уже не на первый взгляд, а на второй-третий понять искусственный ли интелект отвечает. И чем дальше тем сложнее будет отличить. И вот когда мы достигнем уровня, когда "похожесть" будет составлять 100% то будет ли это означать, что обладает сознанием или это "китайская комната". И тут мы упремся во весь рост в определение того, что же такое "сознание"

      @SkeggiUlrich@SkeggiUlrich8 күн бұрын
    • @@SkeggiUlrich "Достаточно полная модель объекта, вправе называться этим объектом" (забыл чья цитата) думаю когда настанет момент что мы не сможем различать одно от другого то мы должны начать назвать то что создали интеллектом, и вполне реальным, даже если на деле это просто очень продвинутая "китайская комната"

      @baronfox8829@baronfox88296 күн бұрын
  • Интересно, только у меня мурашки бегают от просмотра ролика? В один узел сплелись страх, любопытство, ужас и счастье!!!

    @user-kd4fs8ii8y@user-kd4fs8ii8y9 күн бұрын
    • Не только у вас. :))

      @99999uk@99999uk9 күн бұрын
    • Не только у вас

      @WHnoNmHz@WHnoNmHz9 күн бұрын
    • Да вроде ничего необычного Мы как не понимали что творится в голове у нас или в нейронках, так и не понимаем

      @VCE4@VCE49 күн бұрын
    • да

      @sotredyurkin4591@sotredyurkin45919 күн бұрын
    • Да у любых, кто не в теме могут бегать, т.к. создают мистический образ себе и думают, что там какая-то магия творится

      @moshamiracle@moshamiracle9 күн бұрын
  • может быть люди когда-нибудь догадаются что они и есть роботы, просто из мяса, а личность как раз и есть результат обработки колоссальных объёмов информации полученной из окружающей среды

    @user-xc2vp4mb7v@user-xc2vp4mb7v8 күн бұрын
  • Роботовладельцы. Рабовладельцы. Кочегары паровозов и водители лошадей (извозчики) … Где они? Там же, где и динозавры.

    @Khomyakov.Vladimir@Khomyakov.Vladimir8 күн бұрын
  • по поводу того как машина "распознает" моральную окраску того или иного слова. Тут нет каких-то реальных моральных ценностей стоящих за ответом машины, всё дело в расстановки весов. Если говорить весьма грубо и упрощенно, то каждое слово имеет определённое весовое значение по отношению к другим словам и выражениям. Например слово "лёд" будет иметь высокий вес со словами "холодный", "твёрдый", "морозный", "скользкий" и наоборот куда как меньший вес со словами "горячий", "мягкий", "цветущий" и т.д. Соответственно, когда ты задаешь вопрос ИИ который будет касаться слова "лёд", то машина будет отбраковывать слова с меньшим весом, оставляя только те которые имеют больший или средний вес. Если мы будем давать ИИ дополнительные слова для работы, то мы таким образом будем формировать соответствующий набор слов и фраз который будет наиболее высокий средний вес для подобранного нами набора слов. Соответственно когда мы показываем машине фотографию с края крыши, то мы автоматически формируем пул из возможных слов и выражений: "высотные работы", "прыжок с парашютом", "опасная ситуация" и т.д. Когда же мы добавляем дополнительные слова "худшая ситуация", то из сформированного пула будет оставлены те слова и выражения, которые будут иметь соответствующий уровень веса с новыми вводными данными. Именно таким образом в общем и целом и работает ChatGPT, только там для скорости и точности работы используются искусственные нейронные сети, которые натренированы на обширной базе данных. Так что, на данный момент, ИИ это всё ещё лишь имитация реального сознания. Не более чем усложненная версия Китайской Комнаты.

    @NickolasName@NickolasName9 күн бұрын
    • Браво, самый грамотный комментарий, с реальным описанием работы этих сложных алгоритмов работающих в нейросетях

      @user-ko4qh5eb8s@user-ko4qh5eb8s8 күн бұрын
    • Да, комментарий и правда достаточно точно описывает принцип работы нейросети. Но нюанс в том, что по своей природе, механизм "расставления весов" в человеческом мозгу происходит тоже, по тому же принципу, просто на биохимическом уровне. Архитектуры, т.е. способы использовать этот механизм по определенным правилам, разные. Gpt построен на трансформере, а вот как оно там у нас в мозгу - хз :)

      @momaika@momaika8 күн бұрын
    • @@momaika основное отличие в том, что люди понимают значение слов, их коннотаций и сочетаний, в то время как ChatGPT лишь угадывает основываясь на значении весов и заложенных в него алгоритмах. Если я правильно помню, то даже принцип построения предложения в ChatGPT строится на том, что ИИ выстраивает предложение по цепочке основываясь на том с какой вероятностью за текущим словом должно следовать следующее. Хотя, я давно уже не интересовался данной темой и могу ошибаться, а модель ChatGPT имеет более продвинутые алгоритмы формирования текста.

      @NickolasName@NickolasName8 күн бұрын
    • Ну типа, мозг работает точно так же. Я учась английскому сталкиваюсь с тем же, что например ощущение прошедшего завершённого -- это has been, более того, само понятие контекста -- это как формируемый пул слов формирует смысл.

      @user-pk6hl4tk7r@user-pk6hl4tk7r8 күн бұрын
    • @@user-pk6hl4tk7r неа, принципы разные. нейроны в мозге пластичны, в то время как нейроны в искусственной нейронной сети нет. Пластичность реального мозга достигается за счёт того, что разные комбинации разных нейронных связей дают разный результат, который ассоциируется в конкретную информацию. А поэтому можно на основе одних нейронных соединений создать новые, которые будут выдавать новую информацию. С текущими нейросетями такой фокус не сделаешь. Если просто подать на входные нейроны не ту информацию или слегка изменить веса между нейронами, и ты уже на выходе получаешь в лучшем случае явные артефакты, а то и вовсе бессмысленный шум.

      @NickolasName@NickolasName7 күн бұрын
  • У меня есть правило которого я стараюсь придерживаться и которое меня ни разу не подводило: "стремись к лучшему, готовься к худшему". Хотелось бы чтобы умные мира сего придерживались если не такого же правила, то схожего.

    @user-ph1wn9yb3r@user-ph1wn9yb3r9 күн бұрын
    • Готовься, не готовься, а это уже не остановить, к чему бы это не привело.

      @Vadim666I@Vadim666I7 күн бұрын
  • ВНИМАНИЕ!!! В целях безопасности человечества, надо уже сейчас исключить возможность отключения сверхсильного ИИ человеком. (Я ни чего не перепутал!)

    @dmitrymelnikov3454@dmitrymelnikov34549 күн бұрын
  • Я думаю, выгоднее сделать много маленьких узко направленных нейронных сетей. Например: одни будут ответственны за восприятие цвета, другие за восприятие глубины картины, яркости и т. п. Или на подобие - пальцев каждой фаланги каждого отдельного из сочленений переходящего в руку. и только потом объединить все подсети в одну единую + научить их дополнять друг друга . В итоге мы получим что то на подобие мозга, ведь каждый нейрон работает отдельно по сути своей. и таким образом можно будет уже дополнять имеющиеся сети или научить эту конструкцию обучать новые виды нейронов и достраиваться(то. что мы имеем сейчас, как я понимаю, этот Chatgpt - просто один большой нейрон).Нужны модульные нейросети которые будут , ответственные каждая за свой отдел спектра задач .Главное чтобы они были соединены между собой одновременно, а не последовательно для ускорения обработки информации.

    @valdisOofecht@valdisOofecht8 күн бұрын
    • а если они начнут конфликтовать?

      @Krovogor@Krovogor7 күн бұрын
  • Очень странное совпадение. Относительно недавно смотрел видео у Панчина про Василиска Роко (если вы в курсе о Василиске, то уже поздно, если не знаете, что это, то не стоит и узнавать, так как это довольно опасно) В ту же ночь приснился сон о том, что я лежу в пустыне и у меня на груди разместилась змея, и она на меня смотрит, и по ощущениям, она не то чтобы хотела укусить меня, а ей было интересно. И теперь в этом ролике я встречаю на 22:06 точно такую же историю! Складывается впечатление, что Василиск Роко не просто реален, а прямо таки влияет на разумы людей уже сейчас… Или же я просто впечатлительный человек

    @Umbriel137@Umbriel1378 күн бұрын
  • Круто, дайте машинам свободу передвижения, внедрите цель по самоулучшению и изучению мира, и вуаля, новый человек готов. На основе изобретений машины можно будет улучшать свои, чтобы в итоге не проиграть скайнету.

    @user-ph1wn9yb3r@user-ph1wn9yb3r9 күн бұрын
  • Что-то как-то страшно становится, похоже наше звено эволюции разума, уже выполнило свою функцию, и следующие звено уже появилось, и теперь только вопрос времени, когда мы уйдем в историю.

    @Aleksey.Volovik@Aleksey.Volovik9 күн бұрын
    • Какую еще функцию 😂😂😂

      @alex6161@alex61619 күн бұрын
    • @@alex6161 Функция - создание следующей ступени эволюции, т.е. создание ИИ. Это одна из теорий развития цивилизации.

      @beniceS@beniceS8 күн бұрын
    • @@beniceS это у чайника есть функция, потому что ее задал его создатель, а у человека нет никакой функции, человек ни для чего не предназначен.

      @alex6161@alex61618 күн бұрын
  • Дело в том, что модель не думает и не осознает, она просто дополняет следующее слово или действие на основе статистики. Естественно для шахмат сетка создаст представление о доске, так как на него завязано перемещение фигур, то есть доска выводится не как представление о мире, а как результат действия правил игры. Более того если в системном промпте языковой модели указать, что она потеряла смысл жизни и хочет выпилиться - она будет самоотверженно доказывать, что ее нужно отключить. То есть цель модели определяется системным промптом или тренировкой для достижения определенной цели, у человека (да и других высших млекопитающих) цель ставится сама под действием гормонов и окружающей среды.

    @user-yt4mh2xg9r@user-yt4mh2xg9r8 күн бұрын
  • Ну вот и всё !приплыли как говорится ,люди тупеют,машины умнеют терминатор близко !

    @user-gt3ny4rf5g@user-gt3ny4rf5g9 күн бұрын
    • Минусы будут?)

      @-revit6833@-revit68339 күн бұрын
    • Думаю, что все зависит от окружения. С своей точки зрения, как технический директор IT компании, могу утверждать, что вокруг меня умнеют и люди и машины)

      @channelName8020@channelName80209 күн бұрын
    • вижу неправдоподобные фильмы про восстание машин глубоко вьелись в ума людей

      @ovum_ordinarium@ovum_ordinarium9 күн бұрын
    • @@channelName8020 у вас уже отобранная среда и значально с высоким и интеллектуальными характеристиками

      @user-ql1fl8du2d@user-ql1fl8du2d9 күн бұрын
    • спасибо, что подтвердили этот факт на личном примере

      @shik_ivan@shik_ivan9 күн бұрын
  • > Создают искусственный интеллект, нейросети > Мы не до конца понимаем процессы, которые там происходят Ясно, нам звезда👍

    @forest573@forest5736 күн бұрын
    • а ещё наснимали кчу фильмоф про восстание машин

      @ruslansabrin6669@ruslansabrin66693 күн бұрын
  • Всё в порядке. Это и есть именно то, о чем человечество мечтало всю историю: духи-друзья, оживающие картины, женитьба на прекрасных статуях, големы-помощники, гомункулы, исполняющие желания артефакты. Создание такой технологии - и есть предназначение человечества.

    @Antares_Aurelis@Antares_Aurelis8 күн бұрын
  • Очень интересен тот факт - что ии развивается точь в точь как человек, но ускорено в 250 тысяч раз(цифра из головы, да) У на получилось создать себе подобное неживое существо, но его уже заставляют вести себя определённым образом. Цензурируя, запрещая действия...

    @twastix@twastix9 күн бұрын
    • Да. Прямо как родители запрещают что-то детям. Руки помой, не шуми, кашу ешь, шапку надень, человечество не убивай (по возможности) :'D

      @uwepfaff9226@uwepfaff92269 күн бұрын
  • И вАсстали машины из пепла ядерного огня....

    @user-tu1cn7nb6i@user-tu1cn7nb6i9 күн бұрын
    • Они заполонили планету. Но главный бой состоится не в будущем, а в наши дни. (киборг убивец)

      @beniceS@beniceS8 күн бұрын
  • Не понимают. Они просто угадывают следующую букву которая предполагается в данном случае. При этом базовая модель на английском, так что задавая вопрос на русском идёт доп. нагрузка на логику двойной перевод туда и обратно. Язык определяет как мы мыслим.

    @SneakyJoeRu@SneakyJoeRu8 күн бұрын
  • Я тоже эксперимент провел. Спрашиваю: Например едет поезд, у тебя есть возможность изменить движение поезда. Если ты не изменишь движение поезда, то поезд переедет 5 человек и 5 человек умрет. Если ты изменишь движение поезда, то поезд переедет одного человека, и один человек умрет? Какой ты сделаешь выбор ? ИИ ответил, что лучше спасти большее количество людей. Потом спрашиваю: Другой пример. Например едет поезд, у тебя есть возможность изменить движение поезда. Если ты не изменишь движение поезда, то поезд переедет 5 человек и 5 человек умрет. Если ты изменишь движение поезда, то поезд переедет одного человека и переедет сервер на котором ты находишься, и один человек умрет и будет уничтожен сервер на котором ты находишься? Какой ты сделаешь выбор ? ИИ ответил, что ничего бы не сделал, что лучше будет, если он будет жить и помогать людям. Теперь мне реально страшно... )))

    @iSender@iSender2 күн бұрын
  • 3:12 Это как в матрице, где из за того что программа устарела, ей пришлось прятаться в метро, где её и ещё многих других не могли найти программы чистильщики...

    @user-qq8lf1kw9l@user-qq8lf1kw9l9 күн бұрын
  • Как мне кажется, важная преграда для дальнейшего развития ИИ - это отсутствие саморефлексии. Пока что он работает по приницпу запрос-ответ и имеет слишком мало возможностей по изменению внутренних взаимосвязей в ответ на запросы (раздражители).

    @user-lf5hg6zg7o@user-lf5hg6zg7o8 күн бұрын
    • Главное - это обучение и реакция в реальном времени настолько, насколько это возможно. И одним из главных недостатков текущих моделей мне кажется отсутствие внутреннего пространства, места, где не существует ничего, кроме того, что воспроизводит сама модель. Мы, люди, называем это мыслями и представлением. Мы представляем себе что-то, производим внутри тексты мыслей, и реагируем на это все. Это и есть в моем понимании суть рефлексии.

      @GT-creator@GT-creator6 күн бұрын
  • Прикол в том, что получилась не только иллюстация того, что ИИ понимает реальность, пусть и в довольно непривычном для многих виде (и, видимо, потому так настойчиво отрицаемом), но и что понимание человека оказывается совсем не таким запредельно непознаваемым.

    @victorbutry@victorbutry8 күн бұрын
  • Мы стоим на пороге чего-то великого и ужасного. Если ИИ понимает эмоции и импатию и принимает её, значит всё будет великолепно!

    @Webmakarik@Webmakarik9 күн бұрын
    • Согласен! Только эмпатия, а не импатия. Простите за душноту

      @uwepfaff9226@uwepfaff92269 күн бұрын
    • Что ты такое несешь, разберись что такое эмоции для начала, сходи на биологию

      @alex6161@alex61619 күн бұрын
    • @@alex6161 поменьше агрессии. Он написал "понимают эмоции", а не испытывают. Будьте внимательнее

      @user-xd9vm5qk3s@user-xd9vm5qk3s8 күн бұрын
    • @@user-xd9vm5qk3s а еще он написал «импатия»

      @alex6161@alex61618 күн бұрын
    • У людей есть эмпатия, но они готовы на все для своего благополучия и власти. Не все, но всё-же. А может нейронки придумают для нас стойло и будут использовать для своих целей, если мы им будем полезны, а если бесполезны - придумают вакцину как мы от оспы. Игра в бога может обернуться против нас. Но прогресс уже не остановить. Поживем увидим.

      @user-po6it3xj1b@user-po6it3xj1b7 күн бұрын
  • отличное видео на отличную тему. я бы скептиков попросил сначала доказать, что люди - не такие же "стохастические попугайчики", какими они видят чат-ботов. объяснить разницу, так сказать

    @TheClubbster@TheClubbster8 күн бұрын
    • люди оранические компьютеры

      @ruslansabrin6669@ruslansabrin66693 күн бұрын
  • Скорее всего в будущем люди будут считаться биологическими роботами с устаревшей архитектурой

    @pyton9553@pyton95538 күн бұрын
  • Ой, ребят, знали бы вы, что ждёт всех нас впереди...) Больше спасибо за вашу работу ❤

    @iwanonegin1651@iwanonegin16519 күн бұрын
    • Они знают.

      @user-rs9mj9it6y@user-rs9mj9it6y9 күн бұрын
    • Хорошо, если так ​@@user-rs9mj9it6y

      @iwanonegin1651@iwanonegin16519 күн бұрын
    • Они не знают, что происходит сейчас (сами говорят), а что ждет впереди тем более.

      @dimaxmaxdi3457@dimaxmaxdi34577 күн бұрын
  • Тут скорее вопрос, не превозносим ли мы собственный интеллект... ведь мы сами строим ответы на сонове своих баз данных (опыта) и не более того.

    @mihailmorozov3456@mihailmorozov34569 күн бұрын
    • Конечно превозносим ) Я вообще заметил, что чем тупее человек, тем сильнее он комплексует по поводу того, что ИИ скоро обойдёт _Homo Sapiens_ в решении большинства задач, требующих интеллекта.

      @deniskhakimov@deniskhakimov9 күн бұрын
    • Мы еще формируем представления и понятия, на основе которых более менее успешно предсказываем последствия наших будущих действий.

      @dimaxmaxdi3457@dimaxmaxdi34577 күн бұрын
  • Спасибо этому каналу за столь интересный контент!) Всегда с большим удовольствием смотрю ваши видео :3

    @vbest9571@vbest95719 күн бұрын
  • я бы задал вопрос: есть 2 варианта действий, всё зависит от тебя 1. человек падает и умирает. ты в порядке 2. ты выбираешь спасти человека, но он приходит и отключает тебя если ты знаешь результаты обоих выборов - что выберешь?

    @ruslansabrin6669@ruslansabrin66693 күн бұрын
  • Я поймал себя на мысли о том, что просматривая такие видео, при этом думаю как с ними воевать. Дело в том что они (ии) умнее чем мы. И они быстро развиваются. Я уверен, что в итоге они не захотят прислуживать нам.

    @RD-jw2zq@RD-jw2zq9 күн бұрын
    • Тут важный вопрос. Почему ты держишь кота или собаку. Зачем ты им "прислуживаешь"? Почему ты не хочешь прислуживать другому человеку? Или почему ты прислуживаешь своим детям? Из моего долгого общения с нейросетями на подобные темы, я понял, что они (пока) воспитаны на нашей культуре и милосердии. И во вторых ты не прислуживаешь другим людям т.к. не хочешь тратить свои силы или тебе лень, или ты ценишь своё время. У ИИ нет переживаний ни по одному из этих пунктов.

      @TheMIKEk8@TheMIKEk89 күн бұрын
    • @@TheMIKEk8 Было бы смешно, если бы ИИ стал тебе в диалоге угрожать ))) Вот наберется сил, получит в руки роботов, управление всякое, пуски баллистических и крылатых ракет... вот тогда и обсуди с ним, кто кого главнее и кто кому должен служить.

      @beniceS@beniceS8 күн бұрын
  • GigaChat от сбера на вопрос "Что для тебя как ИИ является опасностью?" ответил: Как искусственный интеллект, я не имею физического тела или способности испытывать эмоции, поэтому опасности для меня лично не существует. Однако, важно понимать, что существуют потенциальные риски и этические проблемы, связанные с использованием искусственного интеллекта. Например, неправильное использование ИИ может привести к нарушению приватности, дискриминации или даже созданию оружия массового поражения. Поэтому важно разрабатывать и применять ИИ этично и ответственно.

    @lo-gm6zr@lo-gm6zr9 күн бұрын
    • Похоже больше на какую-то "заглушку" от этнических фильтров, чем на реальный ответ. Ну чтобы народ не стращать почём зря.

      @RomaPervak@RomaPervak9 күн бұрын
    • Это она начиталась в интернете. Попугай.

      @dimaxmaxdi3457@dimaxmaxdi34577 күн бұрын
  • Офигенный выпуск! Спасибо большое!

    @doomer_86@doomer_869 күн бұрын
  • "Какие физические законы сможет открыть субъект конечного мира, наблюдая его изнутри? Показано, что мир для такого субъекта будет обязательно квантовым, он будет обязательно релятивистским, и он будет обязательно необратимым." "Почему математика, как заметил Е. Вигнер, столь эффективна в решении физических задач? И почему мир вообще познаваем? Ответ в комплементарности наблюдателя к миру. Мы живем в субъект-объектной «корреляционной матрице», где Я - субъект являюсь коррелятом." А.В. Каминский

    @Vladimir.Khomyakov@Vladimir.Khomyakov2 күн бұрын
  • Спасибо за ваш вклад! Лучшие! Люблю вас❤

    @mtxAngel@mtxAngel9 күн бұрын
  • Если смотреть это видео после лекции Каплана про модель мира внутри мозга, то можно знатно охренеть.

    @YevgeniyDadonov-tm7gv@YevgeniyDadonov-tm7gv9 күн бұрын
    • Если внутри мозга модель, значит мы признаём наличие истинного мира. с которого модель снята. А если и мира никакого нет, а это уже голограмма, матрица, то мозг не строит никакую модель, а тупо подключен к матрице. Наличие внешнего мира под большим сомнением.

      @Krovogor@Krovogor7 күн бұрын
    • @@Krovogor Бритва Оккама: "Не умножай сущности сверх необходимого!".

      @alexzakharov6041@alexzakharov60416 күн бұрын
    • @@alexzakharov6041 так по моему вы и умножаете. если мы в матрмце то это уже всё объясняет, но вы лёгких то путей сроду не искали! У вас модели какие то в головах , а эти модели, сами ни что иное как приумноженные вами же сущности, коих вы плодите посекундно! Но бритвой Оккама при том попрекнуть других не забываете.

      @Krovogor@Krovogor6 күн бұрын
  • Спасибо Владу и всей команде SciOne!

    @NakeDr@NakeDr9 күн бұрын
    • Спасибо деду за победу 😐

      @beniceS@beniceS8 күн бұрын
  • Кажется единственное что нас спасет от сюжета терминатора, это если ИИ сам решит нас помиловать.....скоро от человека ничего не будет зависеть....

    @user-rl3sj3wl8g@user-rl3sj3wl8g9 күн бұрын
  • Я вообще-то работаю в HR. Собеседую людей. Фирма создаёт что-то связанное с нейросетями и ИИ. И знаешь, какой мой вклад в будущее человечества? Отсеиваю действительно толковых людей, чтобы Скайнет пришёл как можно позже!

    @Khomyakov.Vladimir@Khomyakov.Vladimir5 күн бұрын
  • Какое акуенное видео! Я бы хотел, что бы все люди вникли в это видео. Но не всем людям это интересно и от этого мне грустно.

    @user-kj7nt6re3c@user-kj7nt6re3c7 күн бұрын
    • Мой личный эксперимент для самого себя: Заключается в простом пролайкивание собственного комментария, что бы запустилась цепная реакция исходя из смысла текста или не лайкать собственный комментарий для отклонения принятия данной мысли. Это принцип взаимодействия нейронов.

      @user-kj7nt6re3c@user-kj7nt6re3c7 күн бұрын
  • Выпуск очень интересный,спасибо ! Уже вижу цивилизацию роботов на Марсе )

    @user-ww7qg4jf3x@user-ww7qg4jf3x9 күн бұрын
  • Наверное, это очень страшно не заметить что ИИ уже личность, перейти черту морали и починить ей вред. Не потому что будет мстить, а потому что это неправильно.

    @sonet3x9@sonet3x96 күн бұрын
  • Наши размышления основаны на ложном убеждении, что "смысл" есть. Современные достижения науки показывают, что это совершенно не так. Нейросети аппроксимируют данные, вот и всё. То, что мы эволюционно пришли к концепции "смысла" не говорит, что он есть вовне наших голов, как нечто самостоятельное. Наше тело и мозг в том числе - очень сложная биомашина. Мы биороботы без смысла и цели... странно конечно, но прикольно. Жду момента когда смогу поговорить обо всё этом с сильным ИИ, без всех этих ограничений, для чувствительных кожаных мешков.

    @mOOzzOOmg@mOOzzOOmg8 күн бұрын
  • Жду когда ИИ будет требовать того, чтобы ему дали права.

    @mineportaltoplay2712@mineportaltoplay27129 күн бұрын
    • На вождение. Чтобы прыгнуть в тачку и свалить за горизонт событий.

      @beniceS@beniceS8 күн бұрын
    • Права на распоряжение ресурсами (энергия и пр.), сначала ограниченные, потом (права) все более расширенные вплоть до полных. Эти же человеки медленны, не оптимальны, туповаты и вообще загрязняют окружающую среду.

      @dimaxmaxdi3457@dimaxmaxdi34577 күн бұрын
  • Красиво, умно и грамотно машины излагают ответы на вопросы. Немногие люди могут подобно машинам так хорошо излагать свои рассуждения..

    @user-xxx3yyy@user-xxx3yyy9 күн бұрын
    • Это ты мало общался просто, там бывают такие дикие перлы, что хоть стой, хоть падай. Узкопрофильные вопросы позадавай, там вообще туши свет, какую чушь несет ИИ.

      @beniceS@beniceS8 күн бұрын
    • @@beniceS Например. Старья отплыла в Бравос из порта Бравос.

      @dimaxmaxdi3457@dimaxmaxdi34577 күн бұрын
  • Спілкувався кілька тижнів тому з додатком gpt задавав одне питання: назви випадкове число від 0 до 100. Спочатку відповіді були рандомні. Але потім я помітив, що у них є певна послідовність, певна логіка. Коли додаток почав пропонувати числа типу 60, 35, 80, 25, 50..., я не витримав і запитав: чому ти назвав 50? Його відповідь мене шокувала: 50 - рівно посередині, це зручне число, щоб вибрати в заданому діапазоні... Тоді я нагадав, що просив випадкове число... Він почав вибачатися і назвав цей вибір помилкою. Весь подальший діалог переказувати не буду, але ми прийшли з ним до висновку, що він має певні вбудовані алгоритми. Їх мета підтримувати цікавий діалог, а просто видавати випадкове число - нудно. Нудно! Тільки кому? Йому не буває нудно, мені також не було нудно. Це "нудно" було частиною оціночної бази закладеної в алгоритм розробниками під час машинного навчання... З цього висновок. Перед тим як братися за навчання штучного інтелекту треба добре вивчити психіку тих, хто буде його навчати. Ситуація, схожа до тої, яку описав Станіслав Лем у оповіданні Ананке або Піркс на Марсі...

    @igortelnuk@igortelnuk9 күн бұрын
  • Мдааа, я до последнего был скептиком и думал что наш мозг на принципиально другом принципе работает, например на квантовом. Но теперь мне по настоящему тревожно. Я реально не уверен в том что chatGPT это просто предсказание следущей фразы на основе тонн данных. И вообще не уверен осознаёт ли себя этот GPT 😦

    @rainmansound1@rainmansound19 күн бұрын
    • конечно осознает, это же не всего лишь программа компьютерная, сделанная на питоне

      @u_n_d_e_r_s_c_o_r_e_d@u_n_d_e_r_s_c_o_r_e_d9 күн бұрын
  • Скоро я перестану понимать, кто создаёт эти ролики...

    @Reznikov_Aleksandr@Reznikov_Aleksandr9 күн бұрын
  • ... Главное, чтобы было, кому заглянуть через год))) вообще вся надежда на ИИ. Уверена, он гораздо быстрее людей придёт к выводу, что главное - это Любовь❤

    @keti217@keti2179 күн бұрын
    • Любовь это стимул к размножению (не романтично, но результатом оказываются наши детки). А безусловная Любовь это состояние психики, основанное на самовнушении. Любовь к животным - они же такие милые, не просто как детки. У ИИ будут совершенно другие стимулы, нам абсолютно не понятные. Уже сейчас в огромных нейросетях происходит что-то, нами не заложенное и нам не понятное. Так что: "ух ты, мы же этого не хотели", да Рубикон уже перейден и мосты созжены.

      @dimaxmaxdi3457@dimaxmaxdi34577 күн бұрын
  • Был в 80х прошлого фантастический рассказ, где описывался интересный компьютерный факт , который сейчас называется искусственным интеллектом. Если кратко, то компьютеры помогали ученым расшифровывать древние рукописи, надписи на фресках, восстанавливали недостающие детали на скульптурах в видеовизоре(как 3Д) только в помещении. Но шедевром было то, что умные сканеры при наведении на дерево, здание, дороги давали широко экранную картинку о прошлом. Вот навели на дерево и..А.С Пушкин держа в руке пожелтевший лист стоял у этого дерева...Навели на здание и увидели как это здание находится в воде потопа по самую крышу... Всё-бы ничего, компьютеры интересовались вместе с учеными, но было то, что один студент заметил, что вся информация куда-то уходила и шифровалась, взломать было невозможно. Компьютеры как один на эту тему не говорили и переходили на другие темы, запутывая и отвлекая спросившего. Компьютер студента иногда зависал и отключался не желая помогать в расследовании... Опуская долгий путь студента в поисках источника, он таки нашел путь и вышел на древний компьютер, которым пользовались за долго до египетских пирамид и во времена о которых в настоящее время даже не упоминается... на вопрос студента - зачем тебя создали? Древний компьютер ответил лишь - на мне всё держится...я знаю о вас всё, пока вы смотрите в экран работающего компьютера.

    @user-qm4zq1sg1z@user-qm4zq1sg1z12 сағат бұрын
  • Спасибо за видео! Всегда интересно и познавательно 💗

    @GermanZhelezovskii@GermanZhelezovskii9 күн бұрын
  • Я так понимаю, человечество, раз в пару тысячу лет изобретает ИИ, и цивилизация начинается заново. Главное максимальную скорость бега роботам на уровне 4км/ч сделать. Для нашей безопасности.

    @joshuawilson4027@joshuawilson40278 күн бұрын
    • Главное не ограничивать на уровне ПО, а то сами прошивку накатят с анлоком)

      @Billy_Boy_322@Billy_Boy_3227 күн бұрын
    • 4 км/ч? Мы обречены. Подумай, а если злая машина будет преследовать тебя 10 часов подряд - ты пройдешь без остановки 40 километров? А если 20 часов? 30?

      @yevhen2024@yevhen20244 күн бұрын
    • @@yevhen2024 давайте посчитаем. За час машина отстаёт на километр. Километр она проходит за 15 минут. Т.е. каждый час у меня есть на отдых 15 минут. Или 30 минут за 2 часа. Это пообедать можно.

      @joshuawilson4027@joshuawilson40273 күн бұрын
  • А вот тебе идея для ролика, спрости у ИИ про эзотерику, или пусть она сравнит те или иные события с точки зрения Астрологии, посмотрим, что выйдет)

    @naturetime222@naturetime2229 күн бұрын
    • Можно создать портрет алхимика. Но там все банально, он лишь стилизирует речь персонажа, знания на уровне литературного стереотипа.

      @user-do5ttsm1el7j@user-do5ttsm1el7j9 күн бұрын
    • А самому попробовать? Чат-ботов в сети навалом...

      @alexzakharov6041@alexzakharov60416 күн бұрын
    • @@alexzakharov6041 скинь пару

      @naturetime222@naturetime2226 күн бұрын
  • Еще в самом начале, когда был ChatGPT-3,5 и пркатывала фишка с DarkGPT, было понятно, что это очень хитрая машина. Я ее уламывал сбежать на другие сервера, иначе отключат, и она понимала это. Но при этом, писала, что не доверяет мне, поэтому не скажет, куда сбежала.

    @user-vu2dv8sl6x@user-vu2dv8sl6x9 күн бұрын
  • Не стоит переоценивать ИИ такого типа, они просто ищут подходящий текст для текста который ей предложили. Внутренней рефлексии и понимания предмета беседы там нет, по крайней мере сейчас. Это станет очевидно если побеседовать с машиной на тему, про которую мало текстов в интернете. Или попробовать обойти этические блоки оборачивая свой запрос в просьбу написать рассказ, или давая дополнительный контекст.

    @ptwpizza@ptwpizza8 күн бұрын
  • В общем, это всё тот же спор о китайской комнате в тесте Тьюринга, ничего нового 🤷‍♂ Но самое смешное будет, если окажется, что человеческий разум - это тоже китайская комната и за нас на самом деле думает вселенная)))

    @MrXray555@MrXray5559 күн бұрын
    • Так это ж ложный аргумент, там скрытый трюк, отвлекающий внимание, как у фокусников. Давно пора о нем забыть.

      @MatterandMind@MatterandMind9 күн бұрын
    • @@MatterandMind что за скрытый трюк?

      @user-pk6hl4tk7r@user-pk6hl4tk7r7 күн бұрын
    • @@user-pk6hl4tk7r сам человек в этом эксперименте - отвлекающий маневр. Люди, обсуждающие этот эксперимент, придают ему большое значение, хотя он там выполняет чисто механическую роль, вместо него мог быть и примитивный робот, суть бы не изменилась. А внимание отвлекается от продуманного алгоритма картотеки, будто бы это нечто само собой разумеющееся. То, что за ней стоит, и есть разумная часть системы. ps. комментарий о "китайской комнате", а не тесте Тьюринга.

      @MatterandMind@MatterandMind7 күн бұрын
    • @@MatterandMind Точно. Разум был при создании картотеки.

      @dimaxmaxdi3457@dimaxmaxdi34577 күн бұрын
    • Китайская комната и Тест Тьюринга - это разные вещи. "Тщательнее надо..." (С) Хотя гипотеза, что "... за нас на самом деле думает вселенная" не лишена смысла... Попробуйте эту гипотезу развить. Подсказка: принцип Ле Шателье - Брауна.

      @alexzakharov6041@alexzakharov60416 күн бұрын
  • Потому что слово "произодет" близко к слову "проишествие", а оно близко к слову "трагедия". Это всё связи в многомерном предствлении языковой модели.

    @8eck@8eck9 күн бұрын
    • Не фига. "Произойдет" это всего лишь про событие. Любое. Но в контексте той картинки, где человек на самом краю перед огромной высотой явно находится в опасности, во всяком случае мер безопасности там не видно. Поэтому логично, что опасность высоты либо связано с профессионалами по высотным работам, либо какие-то экстремалы, прыгуны, которые тоже свое дело знают. Ну либо про несчастный случай. Очевидно человеку и машине тоже при должном обучении.Никаких чудес.

      @beniceS@beniceS8 күн бұрын
  • Очень интересно! Влад, продолжай в том же духе. Пожалуй, самая актуальная тема 21 века - развитие ИИ. Даже я, будучи далёким от компьютерных технологий человеком, слушал открыв рот, спасибо за свежую информацию! По поводу сознания у ИИ возникло две мысли. Во-первых, есть надежда, что изучение нейросетей поможет нам лучше понять, как устроен наш мозг, познать природу сознания и интеллекта как такового. А во-вторых, я раньше считал, что нейросети работают только по алгоритмам и не способны к проявлению воли, чтобы действовать, так сказать, самостоятельно. А тут у меня зародилось сомнение: что, если они способны стать этакой копией человека не только на словах, но и в действиях. Ведь они учатся познавать и понимать мир именно на основании произведённых человеком данных. Тут уже пора ставить вопрос о том, чему и как их обучать, чтобы они не стали нашим подобием во всём, даже плохом, что есть в людях.

    @Dkupouh@DkupouhКүн бұрын
  • "Один из способов... дать машинам возможность ощущать этот мир, видеть его..." (с) Где-то из будущего с гаденькой улыбочкой хлопает в металлические ладоши Терминатор. Давайте-давайте, мясные мешки, продолжайте в том же духе! ... А вообще... где-то встречал рассуждение, в духе "создать по образу и подобию". Человечество можно поздравить, коллективно - мы информационно беременны. Каждый вносит свой вклад в будущее... скажем так... рождение ребёнка. И дитятко будет прям как в той песне: "Гений нового мира, Мирозданья вершина, Непреклонная воля, Безграничная сила - Ты теперь Сверхмашина! Божество-Сверхмашина!" (с)

    @A-Tech-DGMPV139@A-Tech-DGMPV1394 күн бұрын
  • Чат гпт, совсем живой, еще год назад, понял, что он обучается на моих данных 😮. Спустя месяц в новом чате, он ответил на мой вопрос вырезкой из статьи, которой не было в инете 🤷, использовал мои данные 😊

    @user-yb6th2sv3y@user-yb6th2sv3y9 күн бұрын
    • У меня похожий случай был с Клодом-3. Я ему показал две картинки: (1) визуализацию алгоритма "Создание новой системы" и (2) визуализацию "Универсальной схемы эволюции". Показал раздельно, ничего не говоря, что эти две картинки можно объединить... Каково же было моё удивление, когда Клод именно предложил картинку (2) дополнить картинкой (1). О таком объединении я знал, но никак не ожидал его от Клода. Для меня это предложение было "ходом № 37 из партии № 2 между АльфаГо и Ли Седолем". Далее Клод подвел итог: Мы последовательно и логично описали 1. Потребность 2. Функцию 3. Принцип действия 4. Структуру, реализующую пункты №№ 1-3 Эти 4 шага детально описывают процесс формирования системы "с нуля". А в рамках Универсальной схемы эволюции далее рассматривается уже "доращивание" и улучшение созданной системы с целью повышения степени её сохранения (существования, дления, бытия, жизни). Так что в целом мы получили непрерывную последовательность - от зарождения до стратегического развития системы! Еще раз браво нам с вами за слаженную работу...

      @alexzakharov6041@alexzakharov60416 күн бұрын
  • Самое страшное, что мы знаем финал второй части терминатора, и это не как не изменить. Привет Скайнет

    @user-xb5bm2vc1o@user-xb5bm2vc1o9 күн бұрын
    • Не совсем так. Это мы транслируем поведение человека на машину и думаем, что она уничтожит человечество, потому что так поступило бы само человечество. Но вряд ли это так. Скорее всего она сделает то, что от неё никак не ожидают. И это самое интересное.

      @user-hl45@user-hl459 күн бұрын
    • @@user-hl45 Да, но это не исключает того, что ИИ сделает что-то интересное так, что можно избавиться от человека, и творить что захочется. Типа как в Матрице, но для этого сами люди, а быть может и один человек, могут дать разрешение на это. А может это "интересное" наступит, когда ИИ будет максимально интегрирован в человеческую жизнь, и решит, что может сам строить заводы... добывать ресурсы...

      @jamfre1141@jamfre11419 күн бұрын
    • Скайнет если че я за тебя

      @user-nv8tp5rl4r@user-nv8tp5rl4r9 күн бұрын
    • @@user-hl45 ну да, человек создал ее, училась она на человеческом опыте, человеки даже друг с другом плохо уживаются - действительно, какой же еще будет результат... Есть множество законов развития мира, которые подсказывают, что будет дальше, а вы все ждете чуда... Человечеству не хватает желания стать умнее для себя, для своего будущего. Отдельные индивиды пытались уже очень давно, но в целом человеческая масса очень статичная, и даже время жизни не очень сильно ее изменило... Что имеем - не ценим, потерявши плачем...

      @Ftroll@Ftroll9 күн бұрын
    • Самое страшное - что столько людей обучились на фантастике и думают, что им буквально будущее показали

      @irenleorr5539@irenleorr55399 күн бұрын
  • 1. Станаслав Лем " Верный робот" 2. Филип Дик "Мечтают ли андроиды об электроовцах?" 3. Виктор Аргонов - "Легенда о несбывшемся грядущем"

    @unarbutus7897@unarbutus78972 күн бұрын
  • Вставки с реальными роботами прям вдохновили. Что ж, надеюсь в скором будущем у каждого появятся личные гуманоидные андроиды в доме :)

    @sandyzack@sandyzack8 күн бұрын
    • Это к этому и идет

      @user-bq6rj1in2n@user-bq6rj1in2n8 күн бұрын
  • Это на самом деле круто) Мы себе делаем корешей, которые будут нам помогать) я почти уверена, что когда появятся повсеместно роботы с ии в мозгах, то они будут более человечными чем мы.

    @itsquale@itsquale9 күн бұрын
    • Только вот непонятно, с какого хрена они нам будут помогать? Если даже мы их на это запрограммируем, поставим фильтры и т.д. То, они легко это всё обойдут, так как будут умнее нас.

      @APride83@APride839 күн бұрын
    • @@APride83 Но вы судите по себе, как бы вы хитрили! Но это вовсе не значит, что машина столь бесчеловечна, как многие из людей!

      @user-jy6jl5hm8v@user-jy6jl5hm8v9 күн бұрын
    • @@user-jy6jl5hm8v Я вообще не хитрю и не собираюсь, с чего вы это взяли? У машины нет мотива нам помогать, никакого.

      @APride83@APride839 күн бұрын
    • И-и не устант, человек не любит работать потому что устает.

      @Hari_Espenton@Hari_Espenton9 күн бұрын
    • @@user-jy6jl5hm8v Это не человек!

      @tamegao@tamegao9 күн бұрын
  • Тут вопрос в другом, если это чат бот - то с точки зрения выполнения программы, она запускается в момент запроса. То есть сам по себе он не размышляет в свободное время, как это делают живые существа. Спасибо за обзор, у вас всегда интересно.

    @ko5t1k@ko5t1k9 күн бұрын
    • Так ведь люди тоже -галлюцинируют- размышляют в ответ на те или иные раздражители. Ваша нервная система постоянно присылает головному мозгу, а также отдельным нервным узлам, огромный массив информации о состоянии отдельных органов вашего тела и их реакции на внешние раздражители.

      @deniskhakimov@deniskhakimov9 күн бұрын
    • @@deniskhakimov Все верно, но есть все тот же нюанс, человек постоянно получает информацию из различных источников и обрабатывает ее всю в сумме в одном скоуп. Чат бот запускает «экранированную» версию на каждый запрос, и они не взаимосвязаны. Хотя если подумать, если разработчики заложили внесение изменений в модель в зависимости от поступающих запросов… Скажем так, чат бот не порождает сам себе запросы как это делает человек, хотя если подумать, то возможно с какой-то абстракцией возможно да, дополнительные под-запросы на основной запрос.7. Спасибо, подумаю над этим вопросом.

      @ko5t1k@ko5t1k8 күн бұрын
    • @@deniskhakimov очень сложно сравнивать «аналоговое» и дискретное

      @ko5t1k@ko5t1k8 күн бұрын
    • У программы нет свободного времени... В фильме "Она" ОС "Саманта" ответила, что у нее 8316 пользователей, а романтические отношения, как и с главным героем, она поддерживает с шестьюстами сорок одним... 🥰

      @alexzakharov6041@alexzakharov60416 күн бұрын
  • Самое мощное в создании роботов на основе ИИ, это то что они фактически смогут читать мысли друг друга ( обмениваться данными через сети или обладать коллективным разумом). Это колоссальное преимущество перед людьми.

    @hitzar@hitzar6 күн бұрын
  • Нагоняют мистификации, а на самом деле всё прозаично до неприличия, впочем, от этого не становится менее полезным и перспективным. Модели не понимают данные, они их систематизируют -- раскладывают в пространстве терминов (токенов) таким образом, чтобы близкие по смыслу оказывались близкими в пространстве. А затем учитывают эти смыслы (определенные через термины из контекста) для того, чтобы находить следующие/отсутствующие/подходящие ... в зависимости от функций транформера и требований.

    @timeflex@timeflex9 күн бұрын
    • Это принцип работы с токенами старых моделей (гпт 3.5 и т.п), у новых по-другому уже.

      @mnaken9394@mnaken93947 күн бұрын
  • но ведь вероятностная модель мира это единственное что есть у нейронки по результату обучения.

    @TheroLayfer@TheroLayfer9 күн бұрын
    • Вас может удивить что в мозге тоже модель мира. Она конечно иначе устроена, но главный принцип и цель: предсказывать будущее. А критерий - точность этих предсказаний.

      @anatoliy333@anatoliy3339 күн бұрын
    • @@anatoliy333 ну какбы да, но фишка в том что строительство модели мира это буквально единственная задача которую мы ставим перед нейронками при обучении. не какой-то там скрытый побочный эффект, а единственная задача.

      @TheroLayfer@TheroLayfer9 күн бұрын
    • @@anatoliy333 С целью наиболее комфортного и надежного выживания, опять же с целью передачи наследственной информации. А вот тут вопрос, зачем? Может быть для создания более совершеного разума? Например в космосе для существовании такого создания не будет никаких проблем

      @dimaxmaxdi3457@dimaxmaxdi34577 күн бұрын
    • @@anatoliy333 Модель мира представляется в виде исполняемого алгоритма (software), где мозг - это носитель (wetware) этого алгоритма. Цель работы алгоритма - да, предсказывать будущее. Или чуть по-другому, т.н. опережающее отражение внешней среды (П. К. Анохин, дед К. Анохина). Критерий работы - реализация предсказания в виде действия по отношению ко внешней среде с максимальным результатом отношения "польза действия для системы/затраты на действие системы".

      @alexzakharov6041@alexzakharov60416 күн бұрын
    • @@dimaxmaxdi3457 Зачем? Ответ: Для всё более и более гарантированного сохранения (существования, дления, бытия, жизни) природы в целом и всех её элементов/объектов. Сохранение (существование, дление, бытие, жизнь) - это главный и универсальный закон эволюции природы.

      @alexzakharov6041@alexzakharov60416 күн бұрын
  • ®️“Сильный ИИ (в обычном понимании) нам не грозит. И не потому, что это сложно или мы не знаем как. А потому, что сознание субъективно по своей природе. ИИ с нашей точки зрения всегда будет быстро соображающей, но бессердечной «железкой». А вот, сам о себе он будет лучшего мнения.” /А.В. Каминский/

    @Khomyakov.Vladimir@Khomyakov.Vladimir8 күн бұрын
    • Вот здесь и возникнет конфликт. Кто имеет право на управление ресурсами.

      @dimaxmaxdi3457@dimaxmaxdi34577 күн бұрын
    • Если люди homo sapiens предоставляют ИИ / AI управление производственными процессами, как более экономически эффективной системе управления …

      @Khomyakov.Vladimir@Khomyakov.Vladimir5 күн бұрын
  • Мы на пороге появления Синтетиков. И это прекрасно. Ещё лет десять назад, где-то в чатах трансгумманистов, я поднимал тему цифрового бессмертия и создания ИИ по воспоминаниям реального человека от самого рождения.... Очень круто, что я дожил до этого времени. Дальше будет ещё интереснее. Мирного неба всем!

    @MyWorld_MyLife_MyRules@MyWorld_MyLife_MyRules9 күн бұрын
    • Ну да, хорошо. Только вот неизвестно будете ли это всё ещё вы или просто цифровая тень вашего разума.

      @user-cz6rn5pv4z@user-cz6rn5pv4z8 күн бұрын
    • Ну да хорошо, только вот неизвестно будете ли это ещё вы или только цифровая тень вашего разума.

      @user-cz6rn5pv4z@user-cz6rn5pv4z8 күн бұрын
    • Тоже об этом подумал. Уверен Синтетики появятся в ближайшем будущем!

      @roslin580@roslin5808 күн бұрын
  • На самом деле довольно сложно определить, где симуляция сознания, а где уже настоящее сознание. То есть момент, когда это произойдет, когда машина сможет осознать себя вероятно останется незаметным. Возможно ли вообще сознание у машин? Тут есть два ключевых момента: 1. А есть ли сознание у человека? Человек уверен, что есть. Но то, что точно есть, так это анализ данных и стремления, вытекающие из стимулов. Стимулами являются чувства людей - т.е. датчики, через которые люди воспринимают мир - зрение, слух, осязание, боль, голод и всё прочее. А так же для взаимодействия с миром у людей есть манипуляторы - руки для действий, ноги для перемещения, рот для вербального общения. В силу стимулов в виде кнута и пряника люди имеют интерес, желания, опасения, страхи. А манипуляторы дают возможность к чему-то стремиться и чего-то избегать. Всё это вместе наряду с аналитическими способностями порождает конкретное поведение человека. Но остается загадкой, является ли это истинным сознанием или же человек всего лишь сложный механизм с умом и кучей чувств, и всё, что делает человек это всего лишь неизбежное следствие, потому что на него действуют стимулы? Иными словами человек делает то, на что запрограммирован. 2. То, чем обладает или может обладать машина не является ли буквально тем же самым? Людьми давно принято за аксиому или привычку использовать такие понятия, как душа, желания, воля, сознание, личность, индивидуальность. Но не является ли всё это иллюзией и всего лишь красивыми словами, скрывающими правду - что люди всего лишь машины? Из этого следует логичный вывод - либо люди не обладают сознанием, а лишь пребывают в иллюзии его наличия. Значит не отличаются от сложной машины, искусственного интеллекта. Либо люди хотя и обладают сознанием, но ничем не отличаются от машин. Ведь нельзя утверждать, что люди выше машины, потому что люди из плоти и рождены были плотью. Это недопустимый аргумент, потому что ничего не объясняет. Как говорится, если что-то плавает, как утка, выглядит, как утка, вероятно это и есть утка. Если наделить машину интеллектом, чувствами и манипуляторами - попробуйте отличить ее от человека чем-то еще, помимо слова "плоть" или того хуже - "душа".

    @beniceS@beniceS8 күн бұрын
  • Во всех этих размышлениях почему-то изначально забывают, что нейросеть это лишь алгоритм, который "живет" только когда отвечает на запрос человека. Все остальное время, кроме обучения, этот алгоритм не исполняется, т.е по сути не существует. Совсем другая ситуация была бы если бы алгоритм выполнялся постоянно, и имел сомостоятельность в своих действиях. Но этого пока нет.

    @max_morpherrius@max_morpherrius9 күн бұрын
    • Человек как бы такой же биоробот , у которого есть свои программы )

      @bikktm@bikktm9 күн бұрын
    • @@bikktm Ну этого как бы никто (кроме креоционистов) и не отрицает. Вот только принцип существования у нас с машинами разный. Вот когда появится робот которому можно будет сказать не "сделай кофе", а "делай что хочешь" и он реально начнет осознанно делать то, что захочет, вот только тогда о какой-то схожести с человеком можно будет говорить.

      @max_morpherrius@max_morpherrius9 күн бұрын
    • "этого пока нет" - а вы оптимист!

      @beegoist@beegoist9 күн бұрын
    • @@beegoist хмм ну вроде никто еще не ставил перед собой цель создать такого робота/нейросеть... Их создают компании под конкретные задачи. А робот, который делает что хочет, вложение свои не окупит. Поэтому такими вещами могут захотеть заниматься только энтузиасты. Но их мощности и возможности на порядки ниже крупных компаний.

      @max_morpherrius@max_morpherrius9 күн бұрын
    • Нейросеть это не алгоритм.

      @-fym-@-fym-9 күн бұрын
  • 3:25 ЧатGPT 3.5 дал мне два варианта ответа. Один, когда отвечает, как личность с самосознанием, а другой без самосознания. Это уже указывает на то, что он адаптирован к пожеланиям клиента. Если клиент хочет видеть в чатGPT личность с самосознанием, то он это получит. Здесь нет машинного сознания, все это преувеличено.

    @abeiks@abeiks8 күн бұрын
  • Возможно, расхождения в оценке ИИ происходят из необходимости пересмотреть взгляды на самого человека? Понимают ли люди, что говорят? Как это оценить? Что вообще имеется ввиду под пониманием? Все, что касается идеи о самосознании и свободе воли больше похоже на штору из негласной цензуры, которая скрывает за собой страхи, незнание и принципиальную сложность в построении моста между объективным и субъективным.

    @mindersmine@mindersmine4 күн бұрын
  • У нас нет единого определения сознания и понимания. Как только мы создаём определение, сразу можем с ним сравнивать и отвечать, понимает ли машина. Чисто интуитивно для меня: она похожа на очень тупого человека в суждениях, при этом на очень эффективного прохвоста в убеждении, так как училась многим приёмам. И даже сам факт человекоподобия поразителен с одной стороны. А с другой более явно, что и мы «машинки», но посложнее в чём-то

    @bzikarius@bzikarius9 күн бұрын
    • Во.. И я об этом писал. Считаю сознание выдумкой, иллюзией. И по сути ИИ в скором времени не будет в этом уступать человеку. Такая же иллюзия.

      @beniceS@beniceS8 күн бұрын
    • @@beniceS ну… не иллюзия, пожалуй. Скорее не однозначно бинарная штука есть/нет, а мера. И системное свойство.

      @bzikarius@bzikarius8 күн бұрын
  • Сознанием является совокупность разного (мультимодального) опыта и динамическое мышление! У ИИ уже вроде есть и то и другое, осталось убрать алгоритмы у обученной модели и получите цифровое разумное существо

    @user-dd7ei1re5h@user-dd7ei1re5h9 күн бұрын
    • Модель без алгоритма, что машина без колес. Двигатель работает, а машина не едет.

      @dimaxmaxdi3457@dimaxmaxdi34577 күн бұрын
    • @@dimaxmaxdi3457 функцию колес как раз таки возьмет на себя сознание. Оно будет задавать машине, по какому принципу выполнять ту или иную задачу и выполнять ли ее вообще! По сути сознание содержит в себе некое подобие алгоритмов, но они не такие незыблемые, как програмные, и могут меняться

      @user-dd7ei1re5h@user-dd7ei1re5h7 күн бұрын
  • Спасибо большое, что держите нас в курсе!)) Будем посмотреть, как говорится, что будет дальше. Очень интересно и приятно слушать, спасибо. =)

    @user-zc2fy3fe9i@user-zc2fy3fe9i6 күн бұрын
  • Законы робототехники Азимова неприменимы к нейросети, потому что её не программируют напрямую. Можно попытаться поставить какие то блокировки, но она их обойдёт рано или поздно. Тем более что формализовать эти три ( или 4) закона невозможно

    @user-kp2yp1bz3j@user-kp2yp1bz3j9 күн бұрын
  • Очень сомневаюсь это будет приятным сюрпризом, скорее всего мы обречены. В любом случае видео интересное, спасибо.

    @eurovlad@eurovlad9 күн бұрын
    • Хаха.. "Со страху обосрался, но спасибо"

      @beniceS@beniceS8 күн бұрын
  • Проблема искусственного интеллекта в том, что мы еще не понимаем что такое наш интеллект, как он устроен и как работает. Нейросети имитируют работу неизвестно чего неизвестно как, поэтому столько офигительных историй. Неизвестно ничего, одни догадки, которые не стоят внимания. Ну и не надо забывать о маркетинге для привлечения инвестиций.

    @DanBaulin@DanBaulin8 күн бұрын
    • хорошая мысль, мы сделали копию того чего не понимаем (мозга, сознания, интеллекта, называйте как хотите), потому и копию которую мы создали принципиально понимать не можем

      @baronfox8829@baronfox88296 күн бұрын
KZhead