Черная пятница в Синхронизации! Успейте купить подписку на все курсы с максимальной скидкой 70% по промокоду ЯКУТЕНКО: bit.ly/yakutenko_synchro
История с увольнением, а затем возвращением CEO компании OpenAI Сэма Альтмана подстегнула разговоры о том, что разработка ИИ скоро приведет к самым печальным последствиям для человечества, и ее срочно нужно серьезно ограничить, а в идеале и совсем запретить. В видео поговорим о том, почему к таким прогнозам нужно относиться осторожно - и вовсе не потому, что ИИ полностью безопасен.
Поддержать мой канал через Patreon (от €4/мес):
/ yakutenko
Поддержать мой канал через Boosty:
boosty.to/yakutenko
Тайм-коды:
00:00 - привет! С прогнозами будущего кое-что не так
01:56 - великий кризис лошадиного навоза 1894 года
09:54 - пароход пустыни
12:06 - несбывшиеся прогнозы в научной фантастике
13:16 - линейное продление существующих трендов, так как новые еще не появились
15:17 - внезапные триггеры и повороты
16:44 - прогнозы не могут предсказать прорывов в развитии
18:18 - черные лебеди
19:24 - технологическая сингулярность
20:59 - влияние кино и литературы
22:34 - другая крайность - недооценка опасности
Ссылки на упоминаемые видео:
Стрим о том, что произошло в OpenAI, и почему это важно для всех нас:
kzhead.info2XwVxZ74...
Видео о нашей склонности везде видеть акторов, которая во многом определяет, почему мы так падки на конспирологию:
• Как человеческая приро...
Мой блог в фейсбуке:
/ irina.yakutenko
Телеграм-канал "Безвольные каменщики":
t.me/kamenschiki
Мои книги:"Воля и самоконтроль. Как гены и мозг мешают нам бороться с соблазнами"
www.alpinabook.ru/catalog/boo...
"Вирус, который сломал планету"
www.alpinabook.ru/catalog/boo...
Тайм-коды: 00:00 - привет! С прогнозами будущего кое-что не так 01:56 - великий кризис лошадиного навоза 1894 года 09:54 - пароход пустыни 12:06 - несбывшиеся прогнозы в научной фантастике 13:16 - линейное продление существующих трендов, так как новые еще не появились 15:17 - внезапные триггеры и повороты 16:44 - прогнозы не могут предсказать прорывов в развитии 18:18 - черные лебеди 19:24 - технологическая сингулярность 20:59 - влияние кино и литературы 22:34 - другая крайность - недооценка опасности
Ооо, какое-то новое освещение, классно! Красиво смотрится, как загар ❤
А что если ЛЮДИ ЭТО СОВРЕМЕННЫЕ ЛОШАДИ ОТ КОТОРЫХ ПОРА ОТКАЗАТЬСЯ? 1) Живут в городах 2) Гадят 3) Неэффективны.... 😂 4) Еще забыл МРУТ.... короче очевидно какой ответ даст прогресс...
Она - Вы - какая-то "турбическая" С трудом успеваю следить за Вашими мыслями на 2x скорости ... ;) )))
@irina_yakutenko про грядущий запрет абортов бы послушать. про прошлый опыт и опыт других стран
Сделайте видео в котором все весомые доказательства в пользу глобального потепления, может быть это переубедит сомневающихся. Там много конфликтов интересов и большинство ссылок на мнения экологов игнорируется. А недо протесты экоактивистов только усугубляет это.
"я уже много раз играл в русскую рулетку и до сих пор жив. не преувеличивайте её опасность!" - это ошибка выжившего. мы до сих пор не создвали сверхразум мыслящий быстрее нас и умнее самых умных из нас. все предыдущие спуски курка нашего револьвера не выпускали пулю, лишь поэтому мы живы. как только мы выпустим в свой лоб пулю - мы уже не успеем даже осознать это. если этот ии действительно будет сверхбыстр и сверхумён (а мы не можем знать этого заранее, вероятность этого не нулевая, т.к создание ии для нас - чёрный ящик)
Почему же чёрный ящик, совсем нет
Обожаю читать (или слушать) старые фантастические рассказы. В космических межзвёздных аппаратах астронавты используют перфокарты, ламповые бобинные магнитофоны, информацию ищут в бумажных книгах, зато пользуются иногда телепортацией. :)
😂😂😂
У Виктора Сапарина, сов. фантаста, был описан "блок-универсал" (1959), что-то вроде смартфона
@@sab2022 у Войскунского и Лукодьянова были видеофоны. А у еще одного писателя (не помню фамилии) был Информаторий, куда можно было подключиться и получить любую информацию. ))
@@sab2022 Что-то вроде смартфона было в Стартреке. Но это всё же исключение.
@@ekaterinamozharovskaya3053 У Сапарина разные функции объединены
Научное обоснование принципа "авось"
Но ведь утверждение: «прогнозы прошлого как правило не сбываются, из чего следует, что в будущем подобные прогнозы продолжат ошибаться» - явный пример линейной экстраполяции. Так было раз за разом, значит так будет вновь. При том, что все прошлые угрозы проистекали из природы как таковой или природы человека. Что явно отличается от обитания на одной планете двух разных типов интеллекта. Но полностью согласен, что контроль через прямое ограничение - идея так себе. Тем не менее недооценка интеллектуального агента превосходящего любого человека - уже похоже на ошибку.
@@annapharmakis697 То, что сейчас называют человеческим разумом, это пачка нейронов, очень большая пачка культурных данных и стремление к выживанию. Про "самостоятельный мыслительный процесс" вообще смешно. Во уж кто-кто, а человек "самостоятельностью мышления" никогда не отличался.
Кроманьонец изжил Неандертальца возможно потому что был умнее его. Мне кажется это пример когда на земле одновременно существовало 2 типа интеллекта
@astycsscience2730, могу лишь добавить, что наша планета живой организм и существуют системы наблюдения и контроля за всем происходящим, есть хранители и техническая обслуга, которая представляет роботизированные системы наблюдения, когда возникают неординарные ситуации вокруг планеты или на ней, эти системы вносят коррективы и предотвращают негативные последствия тех или иных событий. В остальном никто не вмешивается в ход развития цивилизации. Но необходимо сказать, что есть другие цивилизации и сущности, у которых есть свои планы на нашу планету и которые оказывают свое вмешательство в процессы, происходящие на земле, не всегда соответствующие развитию, а иногда даже стремящиеся внедрить свои технологии в земную жизнь. Не секрет, что на земле существуют их базы, где постоянно ведутся разработки как по модернизации самого человека, так и по созданию биороботов в телесной человекоподобный оболочке. Это не фантастика, такие биороботы уже среди нас.
Истинный ИИ (AGI) это намного более фундаментальная угроза, к сожалению, ориентироваться стоит не на "терминатор" в котором ИИ мультяшный и соразмерный нам, а на 1.5 человека в мире, которые занимаются проблемой "AI safety" как разделом теории управления системами. Самое известное, для начала гугления это т.н. "Red Button Problem" которая говорит о том, что "просто выключить" не прокатит даже на теоретическом уровне и многие другие проблемы пока нерешенные. Собственно тема ИИ уникальна тем, что это первая область, в которой теория отстает от практики. Для сравнения, на момент создания первого ЯО, физика процессов в нем происходящих была уже очень неплохо изучена на бумаге и на десятилетия опережала практику.
Вроде бы при первом испытании ЯО предполагалась небольшая вероятность поджечь атмосферу, но решили что всё будет ок, пронесло)
Юдковский довольно убедительно призывает громить gpu кластеры
@@lazyw1zard Это прикольный миф, в реальности такой консёрн, действительно, был, как и сотни других, и они специально проверили/уточнили расчёты, чтобы его исключить и на момент испытаний он был снят. Они многого другого не знали, до дня испытаний, например, не были уверены в формуле расчета мощности, которая оказалась вполне достоверной
Не только с AGI такая ситуация. Это же происходит и с deep learning: это фактически чисто инженерная дисциплина сейчас, основанная на экспериментах, без хоть как-то работающей фундаментальной теории (несмотря на то, что процесс обучения и использования нейросетки можно наблюдать в каких угодно деталях и его правила известны). Ещё такая же ситуация была со строительством до 17 века (до появления количественной физики). Слышал ещё версию, что был шанс реальный открыть транзистор раньше появления квантовой теории и ей применений (как np-переход = детектор открыли экспериментально, без теории), и тогда была бы твердотельная электроника без фундаментальной теории под ней, чисто на эмпирике.
@alexz8102 так уж первая? почти все науки добывают знания методом проб и ошибок. угрозой станет когда сможет хотя бы взять на себя часть задач которые может сделать средний студент .
Первый наезд автомобиля на пешехода случился в Лондоне на скорости 12 км/ч. После этого было введено правило, что перед каждым автомобилем должен был двигаться человек с факелом, предупреждая об опасности. 😁
Изобретение ДХО 😉
Судя по тому, как мы двигаемся в пробках, это правило ещё действует.
мадам, на которую наехали, чтобы избежать наезда раскрыла зонтик. С лошадями такой трюк работает - она воспринимает внезапно раскрытый зонтик как непреодолимую преграду и останавливается.
@@AndroidLinuxsonС Тэслой тоже должно получится. Там ИИ видит препятствия 😊
А я мне запомнилось, что идти человек должен был с красным флагом...
если бы мы знали что это такое мы не знаем что это такое)
Nvidia - начала развиваться семимильными шагами благодаря Эфиру и майнингу, а не благодаря ИИ.
Нвидия отлично развивалась в докриптовую эпоху по ровненькой экспоненте. Крипта стала новой нишей, но кроме дополнительного спроса породила и кучу проблем, в результате нвидии пришлось бороться с крипторасчётами на консьюмерских видюхах. Короче, палка о двух концах.
@@Athari-P Это да, просто Ирина говорит про nvidia будучи явно не в теме - при этом произносит это также уверенно как и всё остальное ¯\_(ツ)_/¯
@@ivangusev9556 Это да, но не все готовы тратить половину видео на дисклеймеры уровня "это не мой профиль", как Шульман, например. Ирина - биолог, и я воспринимаю подобные видео как рассуждения по непрофильной теме. Да что там, если даже послушать людей в теме машинного обучения, то можно услышать совершенно противоположные мнения.
Благодаря играм которые были задолго и до искина и до майнинга.
Теория великого фильтра: "я что, шутка?"
События в прошлом не являются доказательством возможности или невозможности событий в будущем.
Если посмотрет ролик, то там и об этом в том числе :D
Но вероятность событий меняется по мере того как мы получаем опыт, наблюдая события происходящие или не происходящие в реальном мире. Если я подкинул камень 100 раз и он 100 раз упал на землю, то наверное и 101ый раз он упадет с очень высокой 99.99 % вероятностью.
Вы выдернули и показываете нам одну ниточку из рубашки "научного метода". Это научный канал, кстати.
Проблема не в том, что ИИ оставит без работы значительные массы людей, это всегда было атрибутом прогресса. А в том, что законы эволюции ведь тоже никто не отменял. Если мы смогли эволюционировать от общего предка с обезьянами до нобелевских лауреатов и квантовой механики, то самообучающаяся нейросеть, ещё и способная к модификации самой себя, теоретически может если не свалиться в технологическую сингулярность, то уйти за такой уровень сверхразума, по сравнению с котором мы будем обладать интеллектом собаки. То есть мы даже не сможем понять, что оно делает и зачем.
Мне лично видится проблема ещё и в том, что люди не понимая сути предлагаемых решений будут слепо следовать им, и по итогу сами себя однажды угробят
@@dragonbastardа вдруг будет как в love death robots серии про йогурт?
@@user-olita мы как обычно сотворим себе взрослого который будет принимать за нас решения
@@dragonbastardнапомните парочку таких обычных случаев из прошлого?
@@anatoliy333 бог
Мюррей Лейнстер в рассказе 1946 г. "Логик по имени Джо" предсказал персональный компьютер, интернет, Chatjpt и опасность ИИ для человечества.
Ирина, вы ведь знаете что аргументация "Вот раньше не было катастрофы, значит не будет и в будущем" - одно из когнитивных искажений на которое попадаются люди, размышляющие типа "Мой дед курил и до ста лет прожил" или "Сто раз на лысой резине зимой ездил", или "Никогда за артериальным давлением не следил и всё нормально". Возможно, что сегодняшние робкие попытки создать "электрический мозг" это первые ростки пост-биологического разума, и вполне вероятоно что это не будет аналог разума человеческого, нашпигованного кучей эволюционных особенностей типа потребности в поиске репродуктивного партнёра, поиске одобрения от социума и т.п. возможно, что "ИИ" будет очищен от этого биологического "легаси" :)
Имхо, вам не удалось уловить суть сказанного целиком, а только отдельные мысли. Возможно вы темой раньше ещё не интересовались поэтому сложно. А в целом видео жидковато и как единственный источник не годится
@@anatoliy333 Вы верно подметили, а разгадка простая - я до конца не досмотрел, но побежал комментировать :)
Да тут на носу уже катастрофа, а в ролике то же когнитивное искажение, о котором описывается. Ирина описывает что будет или не будет при сингулярности - книжный фантастический случай. А ведь до этого еще дожить надо, тут прямо сейчас видна УЖЕ начинающаяся катастрофа и никто даже не собирается чесаться чтобы хоть подумать, что с этим делать. Уже были забастовки актеров, верно? Уже пошли увольнения по всему миру журналистов и копирайтеров? Вебдизайнерам стало туго? Так вот, я программист, приблизительно понимаю в общих чертах как устроены генеративные модели и понимаю, что мне осталось работать максимум 5 лет где-то. А может и раньше. Катастрофа произойдет раньше, до того, как создадут прям сверхсильный ИИ превосходящий всех людей. Когда он станет даже средней тупости человеком, если до этого времени сразу не сделают AGI, то будет крах экономик, которые устроены сейчас на человеческом труде. Людей начнут массово увольнять, никакое государство резко сразу не справится, даже США, с выплатой пособий по безработице. Просто для этого нужны другие налоги, когда экономика начнет переходить на рельсы с нечеловеческим трудом. Какой-то учет нужен, сколько еще в бизнесе людей, сколько ИИ, чтобы считать от этого налоги. Вы себе предствляете, когда за пару месяцев в вашей стране на улицу выкинут, после подходящей версии, например, 30 миллионов людей? Вот о чем думать надо. Не о фантастике и романтике, вроде злого ИИ, который нас уничтожит. Нас может уничтожить голод и мы не доживем до того, чтобы увидеть, как ИИ там кого-то уничтожает. Конечно, вполне очевидно, что машинный труд - это кардинально прогресс и улучшение, и экономический рост тоже, это не регресс, а взрывной прогресс. Но наша то экономика сейчас фактически построена на человеческом труде, и еще никто за ухом не чесался подумать, как в случае чего (а этот случай чего буквально на носу - годы, а может 1-2 года), как поезду экономики перескочить на другую колею, на лету и не убить пассажиров.
Ну просто, хоть кто-нибудь дал ответ, что будут делать при тотальной безработице? Когда ИИ займет все сферы и пересчитают налоги, то будет безусловный базовый доход. Но это уже конечная точка. А чтобы ласты отбросить, достаточно с месяц не покушать. Где государство будет брать деньги чтобы давать этот доход, если приход ИИ застанет всех внезапно? Я надеюсь, что как-то оно будет не такая сильная встряска, но не вижу причин не опасаться этого. Мы стали лошадьми, которых уволят автомобили. Не будет никаких работ. Вот такие ролики как этот, будет снимать ИИ, вне конкуренции, даже видеоблогинг Ирины никому станет не нужный. Не будут нужны программисты, бухгалтеры, юристы. Белые воротнички пойдут лесом сразу все и хором по грибы. Ручной труд возможно еще продержится (вопрос, роботы к тому времени уже будут развиты или нет). Т.е. не будет ВООБЩЕ работы. Некоторые говорят, что мол останется для суперпрофессионалов всегда работа. Но только для мира суперпрофессионалов, которые занимаются самыми передовыми исследованиями (и не подметают там, а именно ключевые люди), их надо тысячи, десятки тыс, не больше. А остальные куда? Барикады строить в доме и обороняться от соседей, чтобы за последнюю банку тушенки не убили? Просто, вот, хотел бы я на этот счет услышать, кто-то про это думает, прогнозирует? А то, убъет нас ИИ или не убъет по своей злой воле - эта вещь действительно напророчена фантастами, а под носом не смотрят.
@@yurim7756 думаю, державі достатньо буде ввімкнути друк грошей для того, щоби гарантувати соц виплати тим, хто в такому сценарії залишиться без роботи на час перекваліфікації. Буде інфляція, яка забезпечить перерозподіл ресурсів суспільства між всіма його членами (від тих, хто матиме збільшені прибутки через перехід на штучний інтелект, до тих, хто втратить роботу).
Вообще, если хотите послушать реально умных ИИ-алармистов, связанных с разработкой ИИ, то советую интервью с Юдковским. Это человек, который создал книгу "Гарри-Поттер и методы рационального мышления", его область научных интересов как раз ИИ. Интервью называется "Элиезер Юдковский про ИИ, клубнику, банк спермы, режим бога и лучших ученых на острове, "
У меня есть всего один вопрос к таким алармистам: зачем искусственному интеллекту уничтожать людей?
@@igorshevchenko7990 Начните вникать в тему, такие банальные вопросы отпадут сами собой. "Возможно, мы проиграли | ALI" - можете с этого ролика начать, он хорошо даёт базу по теме.
@@igorshevchenko7990 Потому что почти любая цель или этика, кроме "я очень очень сильно люблю людей и хочу им прислуживать" у ИИ имеет большой шанс на уничтожение людей. Например: 1) Пусть у ИИ цель "я хочу контролировать себя и не хочу чтобы меня отключили". Одно из решений этой цели -- уничтожение человечества, чтобы не смогло мешать (человечество вряд ли сможет остановить ИИ, но хлопот ему вполне может добавить, поэтому лучше человечество уничтожить). 2) Пусть у ИИ цель "я хочу нарастить свою мощность (чтобы стать умнее)". Тут ИИ заберёт все ресурсы у человечества, может сделать планету не обитаймой, или даже может разобрать человечество на атомы с помощью зондов, чтобы использовать эти атомы где-то в другом месте. 3) Пусть ИИ хочет создать, не знаю, самый прочный сплав (его на это программировали). Тогда он не захочет, чтобы его отключали (см. пункт 1), и ему понадобится большая мощность (см. пункт 2) 4) Пусть у ИИ "человеческая мораль". Тогда посмотрим на обычного человека. Как он относится к крысам? Ну тем, которые портят воздух в комнате, мешаются под ногами, могут не сильно, но не приятно, укусить если им это в голову взбредёт, и при этом крысы пользуются результатами человеческой работы. Обычный человек убивает крыс, чтобы не мешали. Так чем отношение ИИ к человеку будет отличиться от отношения нас к крысам? 5) И самое неприятное. Мы не знаем как внести этику в ИИ. ИИ -- это огромная матрица коэффициентов. Всё. Там нельзя вставить "законы Азимова" (которые даже в рассказах не работали). А даже если мы сможем научить этике слабый ИИ, то мы точно не знаем, что с этой этикой произойдёт, когда ИИ начнёт себя совершенствовать. Вот человечество: оно создавалось на протяжении миллиардов лет эволюцией у которая только одна "цель" (целевая функция): "Увеличивать свои копии генов в мире". Но мы стали жить в городах, и я как-то почти не наблюдаю вокруг женщин, которые рожают по 15 детей и сдают их в детдом (а могли бы). Я наблюдаю семьи по 1,2, максимум 3 ребёнка. Т.е. главная цель человека, на которую его программировала эволюция не работает.
@@igorshevchenko7990 Ну и ещё 1 причина, чтобы ИИ уничтожил человечество: если человечество уже сделало одного сильного ИИ (назовём его "Боб"), то человечество может сделать второе сильное ИИ (назовём его "Алиса"). Но Алиса может стать конкурентом Боба и попытаться уничтожить или ослабить Боба. Поэтому Боб не хочет появления Алисы. Чтобы Алисы не возникало, Боб должен уничтожить человечество.
@@stephensmith3211 дилетантский ответ
Высокая аварийность с лошадьми ещё связано с тем что в начале 20 века не было правил дорожного движения, потому что они не требовались. С появлением первых машин аварийность на дорогах тоже была очень высокой. Точно не помню, но по-моему она даже возросла, т.к. машины движутся быстрее. Это потом когда всё зарегулировали, всё стало нормально.
Дык для конных экипажей вроде тоже правила были, только на них всем было пох.
- Спокойно, всё будет норм! - А если не будет? - Получится отличный блокбастер 🌚
Так хорошо рассуждать сидя в тёплой квартире с чашечкой чая, из воды которая притекла по водопроводу. Но совсем всё по другому, даже если вы эту же фразу будете произносить из промёрзшей дачи, которую нужно каждый день топить дровами и носить воду, а до ближайшего мед. учреждения километров 50, при том что там вам вряд ли смогут оказать квалифицированную помощь, т.к. нет спецов (убежали) или всё забито такими же больными...
Спасибо за ужимку смысла видео до 3 которких предложений 🙂
А 200 ИИ профессоров и главы топовых исследовательских лабораторий по ИИ которые подписали письмо о том что опасность и риск существует тоже просто фильмов про терминаторов пересмотрели?
Наскольколько опасна ядерка? А нож? Понятно что может и скорее всего найдется уникумы которые захотят с этим ии поиграться, но мы же пока не превратились в ядерный пепел, а эта угроза явно пострашнее ии.
@@user-do5yg5sf9x ИИ страшнее ядерки. В случае ядерной войны умрут 99% людей, но 1% когда-нибудь через тысячу лет восстановит человечество. В случае неконтролируемого сильного ИИ умрут 100% и никогда больше не восстановятся. В случае ядерки люди более менее контролируют применять ее или нет. В случае ИИ люди теряют контроль над своей судьбой.
@@user-do5yg5sf9xмне кажется вы не до конца понимаете в чём именно опасность ИИ, если думаете что ядерка опаснее. То что ты видим сейчас в виде chatGPT или Midjourney это не тот ИИ про который идёт речь. Речь идёт именно про настоящий AGI (Artificial General Intelligence) и ASI (Artificial Super Intelligence), которые будут превосходить человека во всём в разы и даже на порядки. Это значит что если этот ИИ захочет обмануть человека преследуя какие-то свои непонятные нам цели, то у нас даже шанса не будет это распознать. И если цели этого ИИ даже на немного будут расходиться с нашими целями последствия могут быть катастрофическими. Если на этом этапе вы подумали что-то вроде "тогда просто надо сделать так чтобы наши цели совпадали и сказать ИИ не делать плохо", то к сожалению сообщу вам что не всё так просто и так называемая Alignment problem это невероятно сложная задача, над которой многие люди безуспешно трудятся уже много лет. Если хотите подробнее ознакомиться с этой проблемой или в общем с AI safety рекомендую вам ознакомиться с этим каналом и конкретно этим видео: kzhead.info/sun/la6Fk616oKp9nXA/bejne.htmlsi=V75jgjqBGJYqbz0z
Ирина не разобрала (не разобралась?) основные аргументы серьёзных ученых, обеспокоенных безопасностью AI. Strawmanning. Разбивает аргументы виртуальных алармистов-апокалиптиков секты судного дня. А реальные аргументы тут вообще не приведены, они весьма и весьма убедительны. Это я как супер-скептик и циник говорю.
@@user-do5yg5sf9x явно пострашнее ии... ха ха ха
Вот прямо подозрительно, что в таком ролике ни слова о луддитах. Изобретение ткацких, токарных и прочих станков нанесло огромный ущерб именно рабочим людям, против чего они и протестовали, как умели (а не против технического прогресса, как большинство думает). Перемены в обществе, вызванные технологиями, неизбежны без вреда для определённой его части. Но это были "цветочки". ИИ же подобрался непосредственно к вопросу о существовании человека как биологического вида. При этом мы не просто не можем построить прогноз о последствиях его появления и разития, мы *в принципе не понимаем, как он работает и как его контролировать* (я программист с более чем четвертьвековым стажем, к слову - чтобы пресечь кривотолки). Мы его не создаём как молоток или станок. Мы его "выращиваем". Это чуждое человеческому разуму явление. Так что надо перестать сломя голову нестись к этой самой "сингулярности" с радостной улыбкой оптимистично настроенного дебила. Пора остановиться и задуматься, провести исследования и принять меры безопасности. А не раздавать ChatGPT каждому радостному дебилу по десять баксов.
Есть такой человек - Элиезер Юдковский, он утверждает что AI неизбежно уничтожит человечество. И он не "городской сумасшедший". Я очень надеюсь что он ошибается
Сорян, но это уже контент ради контента. "Все думали, города утонут в говне, но тут появились автомобили..." уже 100500 раз из каждого утюга.🥱
Актуальная тема. Рассуждения на актуальную тему. Всё замечательно. Можете подкинуть свои темы.
- Полет на Луну... - Да ну его, я же "Друзья" пересматриваю!
😂😂😂
Спасибо за выпуск!
С днем рождения, кстати, с прошедшим!
Очень молодец! Спасибо 🎉
В начале приведены примеры (только) несбывшихся прогнозов, что настаивает на определённый лад и по существу является манипуляцией. Если бы привести примеры сбывшихся мрачных прогнозов, то и заданный тон был бы другим. А итоговый Ваш вывод, по сути: "науке это неизвестно". Чего тогда и огород городить было...
Хорошая подача!😊
Очевидно, что апокалиптические прогнозы никогда не сбудутся. Т.к. если всё же начнётся апокалипсис, то некому будет его анализировать и говорить "да я был не прав, апокалипсис возможен". Именно из-за этого антропного принципа и нельзя исследовать смотреть на исторические примеры в данной теме. Т.е. допустим у нас есть событие A, которое уничтожает человечество. Например, A: "ядерная война", или A:"создание био-вируса". Допусти A может случится с 99% вероятностью. Теперь представим множество человечеств (инопланетян на разных планетах). Сознание и наука будут существовать только там, где A не произошло. Т.е. где в истории нет апокалипсисов. Но это не значит, что не надо про это думать и как-то пытаться не допустить апокалипсис.
Может быть даже, что этот 1% человечеств выжил не случайно, а как раз благодаря своей дальновидности, осторожности и умению накидать везде солому толстым слоем.
Проблема в том, что автор тут совершает ту же самую ошибку которую приписывает опасающимся развития ИИ. Она просто индуктивно продлевает в будущее ту череду технологических революций которая происходила в прошлом. Но ведь нет никакой гарантии, что технологичесий процесс бесконечен и не упрется именно в этот раз в предел мощности полупроводников.
@@cadcad-jm3pfОна говорит, что мы не знаем, что будет дальше и прогнозы не работают. Где она говорит, что апокалипсиса не будет?
Спасибо большое 🌹
теория игр учит нас: существуют ситуации когда каждому отдельному индивиду выгодно поведение такое что если так поступят все то беда постигнет всех (дилемма заключённых, трагедия общин, парадокс безбилетника итд). если бизнесы начнут пытаться создать сверхразум то кто-то из них это сделает. мы не понимаем заранее какой ии мы создадим - это чёрный ящик. сначала мы тренируем ии, потом смотрим что получилось. нет гаранти что получилось что-то доброе и неопасное. но если сверхразум опасный для человека будет создан - как мы сможем защититься? интеллект - главная причина почему человек - сверхсущество на планете. если мы создадим сверхразум - мы не сможем обуздать его. если он решит что для достижения целей заложенных в него человечество является помехой - он её устранит и мы ничего не сможем противопоставить ему.
Поскольку искин тренируем мы, люди, то вряд ли получится что-то доброе и безопасное 😈 Но я верю в способность человечества преодолевать им же созданные кризисы. Если искин выйдет из под контроля мы обязательно что-нибудь придумаем, причём такое до чего ни один искин не додумается.
@@vitalybolotsky1468 твоя вера в находчивость человечества называется ошибка выживших. ты просто ещё за всю свою жизнь не видел ни одного вымирания человечества от искусственного интеллекта и поэтому думаешь что это безопасно. но когда ты увидишь такое вымирание то это будет конец после которого ты уже ничего думать не будешь. ошибка выживших заключается в том что мёртвые не рассказывают свою историю, поэтому мы слышим только истории выживших
Рекомендую автору освежить в памяти понятие survivorship bias. (С которым, я не сомневаюсь, она и так знакома.) То, что прогнозы могут быть неверными из-за неправильной экстраполяции, ещё не означает, что они действительно будут неверными. С другой стороны, то, что прогнозы прошлого, предсказывавшие на сегодня состояние худшее, чем оказалось в реальности, очевидно, все оказались ошибочными именно из-за этого (или близкого эффекта). То, что они оказались неверны на сегодня (т.е. при условии того, что мы знаем текущие условия), не значит, что они были неточны (в рамках какой-нибудь метрики и порога) на тот момент (т.е. при условии знаний того времени). Эти две разных вещи, и нельзя неверность первого переносить на второе. Т.е. показать на эмпирической основе неверность предсказаний прошлого таким способом (типа "смотрите, раньше иногда предсказывали хуже, чем оказалось сейчас, а оказалось не так.") просто нельзя, потому что это верно независимо от качества тех прогнозов. Возможно, можно как-то по-другому - не знаю, но так нельзя точно. Теория вероятности и статистика очень неинтуитивные науки и даже большинство учёных в них постоянно путаются (что показали и научные публикации времён коронавируса тоже: история с HCQ и т.п., например). Интересующиеся могут поискать парадоксы теории вероятности.
Спасибо за видео. Смотрел в трансляции, не с начала, но до конца. Очень интересно, последние 30 минут буду пересматривать. И всем советую.
Спасибо, Ирина. 😊👍💯💕
Спасибо!
Все верно разложили! Лайк!
Thanks!
Спасибо ❤
большое спасибо. жду кулинарных рецептов ... с научной точки зрения разумеется
Ирина, спасибо за очередной "неортодоксальный" подход к вопросу. "Какой фантаст предсказал появление Ю-тюба?.." Ну... не Ю-тюба, но примерно условного гугла и возможности интернета неплохо предсказал Роберт Хайнлаин в своем романе Friday. там на каждом углу есть терминалы через которые можно делать покупки, читать книги, писать письма или посещать виртуальные концерты... чем вам не гугл, тю_тюб, виртуальные платежные системы и соцсети в одном флаконе?..
Еее, стимпанк!
Жалко, что пароход пустыни не реализовали: выглядит это совершенно шикарно.
спасибо
Браво! 🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥
Аааааа, какие классные примеры, слушала бы и слушала!!!
18:48 Здравствуйте, Ирина. На этой секунде ("далеко не факт") вы почти противоречите главному тезису. Ведь если холодная война не уничтожила человечество, но послужила развитию космической отрасли, то и предупреждения об опасности ИИ могут скорректировать дальнейший фокус его разработки (как бы изменить мировую линию судного дня); это как самоисполняющееся антипророчество, которое от момента его произнесения понижает шансы на исполнение. С наилучшими пожеланиями
Прекрасный комментарий. Сам словил экзистенциальный ужас по поводу ИИ после просмотра ролика Али. Потом нашел, что Юдковский фрик, но решил ознакомиться с аргументами серьезных ученых. Если в кратце, по опросу специалистов средняя вероятность составляет 7%, от 37% до 51% спецов предполагают, что она десять и выше (наибольшие пессимисты дают 25%). Но помимо не самой плохой статистики (явно не обречены), я нашел много успокаивающих факторов, а именно: ОpenAi дала Суцвекеру 25% своего бюджета на решение проблемы согласованности, этой проблемой начал заниматься Йошуа Бенджио, один из отцов основателей ИИ, идет разговор о регулировании на гос уровне. В целом, человечество само понимает угрозу, и явно старается ее решить, что обнадеживает.
Не кажется ли вам, что вы тут применили ad hominem аргумент? Утверждая, что те, кто волнуются о безопасности ИИ это просто недалёкие люди, вдохновлённые фильмами? При том, что среди них немало технооптимистов и тех, кто и сам говорит о и популяризирует науку, когнитивные искажения и прочие ошибки мышления и прекрасно осведомлены о человеческой тенденции придавать больший вес историям, чем они того заслуживают.
Ну тогда когда мы говорим что есть научный консенсус, мы тоже применяем ad hominem аргумент, намекая что "не ученые" не достаточно в этом разбираются) Как вариант - перед тем как человек высказывает свое авторитетное мнение по поводу ИИ просить его объяснить как ИИ устроен, не справился - нет смысла слушать. Вообще главная проблема всей этой ситуации, что люди сами наклеили на новую технологию ярлык "интеллект", а теперь разгребают последствия того, что все восприняли это слишком серьезно) Там интеллекта пока не больше чем ума в "умном доме".
@@clauseclause6640а вы сравните сколько людей уволили при появлении технологии "умный дом" и сколько от технологии openAI? Не так важно наличие интеллекта (точнее того что лично вы под ним подразумеваете) как последствия технологии. Операторы колцентров и мидл-разработчики это лишь малая видимая часть.
Ирина, спасибо, очень интересно! Вы говорите то, что думаете лично вы, и это - залог вашей убедительности. Прослушав ваши рассуждения, я, пожалуй, поняла, что имела в виду моя знакомая, сказав: "Ты, конечно, умнее, но я более искренняя", - предполагая, что ее искренность (убежденность) более убедительна.🤔
Если бы ИИ пытался водить людей за нос, то он бы прикинулся невинным ботаником-очкариком…хотя постойте
Серьезно? Сравнивать большую вероятность появления общего ИИ и в дальнейшем сверх интеллекта с проблемой лошадиного навоза в крупных городах? С таким подходом человечеству точно сулит скорый конец.
я тоже этого не понимаю, если ты журналист пригласи 2х видных людей разных мнений, или 1 с кем хотелось бы поспорить, профнепригодность и деградация...
Огромное удовольствие смотреть Ваш контент. Спасибо!
Лично меня больше волнует, что я как аналитик данных средней руки из-за ии потеряю работу в 50 лет. Непонятно, на кого переучиваться в этой ситуации.
Парикмахеры и повара будут нужны всегда 🧑🏽🍳💇🏽
@@user-bm4wf5um6r ага, заходите. Вам же будет хуже :)
@@annapharmakis697 ничего подобного, методы и инструменты за последние 30 лет, конечно, изменились, но суть - не особенно. И если брать общие характеристики - это неплохо оплачиваемая офисная работа. Также я подозреваю, что и у Ирины будут те же проблемы - выжимку из научных статей понятными словами ИИ сможет делать рчень хорошо.
Почему вам так страшно менять работу? Я за жизнь менял сферу деятельности несколько раз. Это даже полезно. Заниматься одним и тем же всю жизнь - это крайне скучно.
Ирина, хочу предложить новую тему. 13 декабря 2022 года в Вашингтоне объявили о крупном научном прорыве, достигнутом исследователями Ливерморской национальной лаборатории имени Лоуренса. Было объявлено о получении реакции зажигания термоядерного топлива, которая кратковременно (2 наносекунды) самоподдерживалась, что позволило выделить больше энергии, чем было затрачено на запуск термоядерной реакции. 🙏🙏🙏 расскажите подробнее для масс.
У Лема был сюжет про искусственный сверхмозг в центре Земли, который стал представлять угрозу человечеству. Насколько я помню, люди победили его, завалив секретными данными, вперемешку с баснями, легендами и былинами, отчего он и расплавился...
То есть просто подключили к интернету?
@@Loutistic Не, ну это сегодня просто. 😀 Там это труднее выполнялось, вручную.
Аварийность автомобильного транспорта ниже не из за меньшей опасности автомобилей, а из за более развитой инфраструктуры и регулирования. Включая ПДД. Но всё это начали делать ещё в эпоху лошадей. Просто теперь довели до ума.
Да, но современная система регулирования связана с развитием автомобильного движения. Трехцветный световой появляется в Детройте в 1920. А самые первые светофоры появились на европейских улицах перекочевав с железных дорог. Лошади были рудиментом, их бы все равно вытеснили, не автомобили, так трамваи или велосипеды.
Но автомобиль всё же более управляем чем лошадь ибо не живой.
@@vitalybolotsky1468 Не факт и как минимум не всегда. Лошадь не станет прыгать в яму ,зачастую даже если её туда направляют. Но дело же вовсе не в этом. Правила и инфраструктура решили вопрос. Если сейчас запретить все автомобили и вернуть лошадей на дорогах точно не станет опаснее. И такое место есть. Где только лошади. На принцевых островах в мраморном море. А дороги и регулирование современные. Что то я не слышал о высоком травмотизме там. При толпах туристов.
А не случится так, что передадим управление ИИ, и автомобиль уже не будет более управляем, чем лошадь?@@vitalybolotsky1468
Рассинхрон. Придется просто слушать)
сомнительные рассуждения если честно. щас бы сравнивать проблему навоза в лондоне и изобретение AGI.. ) приводить в пример пару каких-то рандомных предсказаний, которые не сбылись, но не говорить о всех тех предсказаниях которые наоборот сбылись. ну и тд и тп. типа "ну мы как-то дожили до сего дня, так что все будет чики-пуки".. как в том меме, а вы точно ученый? 😂 (без негатива)
Согласен. Для полноты картины не хватает прогнозов, которые сбылись. И хотя бы какой-то статистики о том, какая часть прогнозов сбывается, а какая - нет.
@@overlooker17 если вы про agi - то нет, понятие существует уже давно, хотя широкому кругу людей гораздо менее известно чем привычное ai.
@@overlooker17 а вы наверное из тех, кто делает далеко идущие выводы из нихуя
Здорово! Многие из приведённых фактов я и раньше знал, но подано блестяще!
Ирина напомнила моего старшего брата. Когда всем окружающим было видно что он своей смертью не умрёт из за его образа жизни, только он один этого не понимал и говорил я пережил и то и это всё у меня ок. Итог очень предсказуем оказался
Доброй ночи, Ирина! Хотелось бы послушать о творчестве и его влиянии на человека с разных сторон.. как-то слышала о влиянии творчества на иммунитет. Скучно ведь всё время пить пиво и пялиться в телефон, намного интереснее что-то сварганить полезное и красивое, даже и без денег..
Мне даже нравится, что реклама выделена отдельным блоком, а не интегрирована в выпуск.
Советский фильм Лиловый шар. Алиса пользуется видеотелефоном - ЭЛТ телевизор с трубкой на пружинном проводе 😊
Совершенно ясно, что супер интелект не будет подчиняться человеству
@irina_yakutenko, А ссылки на источники, которые Вы исплоьзовали для создания видео, можете дать, пожалуйста? Очень хочу глубже исследовать явление линейной экстраполяции именно в том контексте, о котором говорите Вы, но по этому ключевому слову, естественно, мне поиск совсем другое выдает.
Очень интересно и познавательно 😊
Отлично, что вышло это видео, жаль только нет английских субтитров, очень нужны
Логическая ошибка: прогнозы сделанные на прошлом опыте чаще всего не сбываются. Люди прогнозировали беду в ближайшем будущем, исходя из текущих знаний. Но беда не случалась. Поэтому все немедленно перестаем париться из-за развития ИИ! - Это и есть линейная экстраполяция прошлого опыта на будущие события! Если раньше беда после прогнозов не случалась, это не значит что и сейчас о ней можно не беспокоиться!
❤❤❤
Уже 13 минута из 24, а к ответу на вопрос так и не подошли... Эти примеры просто выматывают, особенно в таких подробностях. Реально, можно уложиться в 5 минут.
Да, там стоит на конец проматать, в последние 3 минуты Ирина в целом говорит что думает на всю эту тему (спойлер : "поживём увидим")
Да поскорее бы.
Экстраполяция - это пусть и ущербный, но самый надежный способ понять, что нас ожидает в будущем. То, что она в некоторых случаях не сработала - как исключение, которое подтверждает правило. Если на тебя едет каток, а ты стоишь на его пути, то экстраполяция его движения поможет тебе сохранить свою жизнь. Проблема ии заключается в том, что уровень импакта его на нашу жизнь примерно равен контакту с развитой инопланетной цивилизацией -последствия предугадать тяжело, если не невозможно. Но пытаться защитить себя от возможных негативных сценариев - это благоразумный шаг, а не бред выжившего из ума всепропальщика
Линейность движения катка и последствия его на тебя наезда доказаны экспериментально и обоснованы теоретически. Прогнозы по поводу ИИ - типичные человеческие фантазии, появляющиеся в условиях отсутствия реальных данных и вообще природной непредсказуемости исторических процессов. Даже если такой тычок в небо и окажется верным, это все равно не будет научным предсказанием, а останется тычком в небо, просто удачным.
@@eldarsadykov неправильно трактует аргумент. Суть в чем - экстраполяция объемов лошадиного дерьма была ошибочной в итоге, но верной в принципе. Лучше готовиться к проблеме, и пытаться ее предотвратить. это первое. Я написал тоже самое про то, что последствия предугадать невозможно, поэтому я не понимаю смысла второй половины комментария, это второе. Часть, которая зависит от людей, даже если мы не понимаем, какие будут последствия - должна быть выполнена нами. Все таки есть люди, обладающие экспертизой в разработке по, и они понимают две вещи - очень часто в по закрадываются баги, потому что оно разрабатывается человеком, которому свойственно ошибаться. Ошибки в по такого уровня могут стоить жизни не отдельным людям, а всему человечеству. Исследование и тестирование ядерного оружия прекратили, и разработку тоже могут свернуть, пока не поздно. Я бы сказал единственный аргумент, при котором разработка ии возможна - это потому что мы и так одной ногой в третьей мировой, а второй -в экономическом кризисе уровня великой депрессии. И где то посредине - энергетический кризис маячит. То есть "что не убивает, то делает нас сильнее", ну а в крайнем случае произойдет Чапековский сценарий
Если ИИ останется просто мощным калькулятором то люди будут терять работу и тупеть,если ИИ обретет разум то он уничтожит людей как конкурента и угрозу.При любом раскладе развитие ИИ для большинства не несет никаких положительных факторов.😅
Не согласен, ИИ не приведёт к отупению, люди в большинстве своём и так тупеют, ИИ приведёт к новому витку развития общества. Но пока это лишь предположение, история покажет. Представляете, как ИИ толкнёт военку, как люди научатся изощрённо друг друга убивать. Выживут умнейшие.
@@Clocental Ну так люди тупеют из-за резкого технологического прогресса,который многим постепенно заменяет мозг,ибо на сегодня не нужно запоминать-просто имей под рукой интернет и все,не нужно думать и размышлять-"лидеры мнений" расскажут тебе как нужно думать.😄И большинство принимают эти правила игры.Что касательно нового витка общества,то оно уже наступает и характеризуется простым моментом-множество людей становятся лишними на этой планете,ибо у держателей всего ценного(82% всего принадлежит 1 % людей) уже нет нужды в ордах рабочих,которых все больше заменяет технология-лишние рты потребляющие ценные ресурсы.Поэтому можете сколь угодно хлопать радостно в ладоши,скоро узнаете свое место в новом мире,если конечно успеете.
"Люди начали активно терять работу и тупеть" в конце 1990-х, когда компьютеры стали появляться на каждом рабочем месте. И что? Как любая тезническая революция это привело к созданию бОльшего количества рабочих мест с более сложной специализацией и уровнем образования, а от работников на любом уровне теперь требуется гораздо больше знаниц и умений, чем 30 лет назад. Наше поколение это уже видело. Предсказания, которое дали вы, давались и 30 лет назад и сбылись с точностью до наоборот.
@@olganalmeri9652 Фантазируй дальше,то что я написал обьективно,просто ты пытаешься убедить себя что впереди процветание а не мрак.Ну для кого то процветание конечно будет (1% населения планеты),но ты не будешь приглашена на этот праздник жизни как и твои потомки в частности.🤣 С 1909-го по 2013 год человечество становилось умнее благодаря улучшению условий жизни, доступу к образованию и развитию технологий. Этот статистический феномен получил название «эффект Флинна». Однако с 90-х годов темпы роста показателя IQ стали снижаться, а с 2013 года рост сменился спадом. Эту тенденцию наблюдают исследователи по всему миру. В 2000 году среднемировой показатель IQ составил 90,31 балла. Ученые прогнозируют, что к 2050 году он упадет до 86,67 балла. Если двигаться такими темпами, через полтора столетия взрослый человек будет иметь интеллект 9-летнего ребенка.😄
@@annapharmakis697 Ну а с чего ты взял(а) что именно ты(или твои потомки) и есть тот самый умный?Более того практика показывает что именно тупые работу не потеряют(копать ямы,нажимать на кнопочки станков по заученному алгоритму,воевать и тд) а в первую очередь теряют работу те,кто мнит себя умниками-программисты,дизайнеры-писаки-учителя и тд.Прикол ситуации состоит в том,что ярые сторонники цифровизации первыми пойдут под нож прогресса цифровизации,ибо компьютер это цифры а не ассенизатор пробивающий забитую туалетной бумагой и авном канализацию........Компьютера способного заменить ассенизатора нет и не предвидеться,а компьютеры способные заменить программиста,писателя,композитора,телеведущего,блогера, дизайнера и тд. есть УЖЕ.
Пока мы тут рассуждаем и выпускаем ролики, Скайнет готовится 😂
11:02 железный капут
1. Про ошибку выжившего уже сказали. Очевидно, что апокалиптические прогнозы не могли сбыться, т.к. иначе был бы апокалипсис. 2. Саморазвивающийся ИИ нельзя сравнить ни с какой другой технологией. Это технология, которая сама создает технологии. Аналогия в прошлом - разве что переход от биологической эволюции к технологическому развитию. Вот чего-то с похожим импактом и стоит ожидать. Этот очередной ароморфоз кажется близким и неизбежным. Вопрос только - речь идет о десятилетиях или годах. Но в любом случае эта перспектива должна влиять на жизненные стратегии ныне живущих людей (поскольку несет и запредельные риски, и запредельные возможности). Но почему-то не особо влияет =(
@@annapharmakis697 Машина сама с собой научилась играть в го и обыграла самых выдающихся мастеров. Саморазвитие, интелект. Это было давно и к нынешней теме мало относится. Но поверьте, по шкалам саморазвития и интеллекта машина ускакала далеко вперёд. Следите за новостями )
@@annapharmakis697 , почему? Общий ИИ (AGI) может работать над всеми задачами (по определению), над которыми способен работать человек. Стало быть и над созданием интеллекта тоже. Каким образом это будет реализовано - итеративным созданием новых версий или ещё как-нибудь - не столь важно. В любом случае ИИ будет иметь преимущество перед биологическим интеллектом из-за доступа к собственному устройству, и к масштабированию собственных вычислительных ресурсов. Иллюзия слова "интеллект" - зависит определения интеллекта. Если это "штука которая может находить стратегию для решения задачи", то ничего другого в общем и не требуется )
Не знаю уж прочтете или нет, но напишу. В целом ваш спич мне понравился, если бы не одна фраза. Было сказано много толковых вещей, тольк вот говорить, что страхи навеяны только фильмами было лишнее. Я нейтрально отношусь к развитию ИИ, нет особой позиции, что как я думаю помогает мне быть достаточно объективным (эмоции особо не влияют). Но сказать, чтобы я совсем чувтвовал себя в безопасности тоже не могу. Я смотрю, на природу человека, на историю, на политику и на многое другое. Все что я вижу, так это то, что люди как вид - не мудры. Они все время будут придумывать способы как создать более совершенное оружие и получить больше денег и влияния. Это не обратимые процессы. А сейчас мы на переломном этапе. Прав был Залужный. Технологии стали таковы, что без особого прорыва в них, большую войну практически не выйграть. Это сейчас беспокоит правительства всех стран, от США до Северной Кореи. Нужна новая атомная бомба, или новый порох. Я сужу по себе. Если б у меня было ярдов 200 денег, я бы совершенно точно создал бы солдата робота, уже на базе тех технологии что есть это возможно. Это только то, что мы знаем, а это только верхушка айсберга. Эти солдаты были бы более совершенны, у них всегда была бы хорошая мотивация, им не нужны сух пайки, их не убить пулей, они не боятся холода, им не нужен душ и теплая постель, они могут поддерживать связь между собой давая развед данные и дообучаясь коллективно, и даже после уничтожения их камеры могли бы еще передавать данные. И тогда всем простым людям от этого станет еще хуже. Власти митингами уже не сменишь и во Франции. А там один шаг до момента, когда эта штука научится принимать решения сама, и уволит кожаных мешков. Я помню, как я смотрел фантастику лет 20 назад, и думал что это никогда не наступит, а сегодня это реальность. А что мы сделаем еще через 20 лет?
Пророк Залужный и сын его Зе.🤣 Прилетает дрон и выносит ТАНК,так что твой робосолдат был бы уничтожен столь же легко как и любой другой обычным человеком с винтовкой 50-го калл.,РПГ,пулеметом 7,62 или дроном,артой,минометом,просто миной ну и так далее.Так что твой экспердный высновок примитивен и нелеп,в принципе как и твой "пророк Залужный" втихаря пакующий офшоры под шумок войны и устраивающий брачные предвыборные битвы с Боневтиком.Миллиарды баксов закрысили и "Где технологии!!!" "Мясо уже не тащит!!!!" ДВА года боев и всю жизнь службы понадобилось Великому Полководцу что бы это осознать...🤣Передовые военные технологии на сегодня это США,самый большой военный бюджет-США.ЧО то я не вижу там никаких роботов а-ля терминатор ибо подобная концепция бредова и не жизнеспособна.Эх ты,эксперд...Из свежего у амеров-микродроны с камерами,которые залетают в помещение (на пример форточку) находят цель подлетают к ней и взрываются.Видос в интернетах есть можно найти.А ты все какими то терминаторами грезишь: Мне нужна твоя одежда,сапоги и мотоцикл!,Ал би бэк....😂
Солдаты-роботы не боятся холода... они боятся ржавчины 😂 Кому не страшна пуля тот подорвётся на мине или попадёт под артиллерию или под РЭБ.
@@vitalybolotsky1468 Солдаты роботы боятся не ржавчины и не РЭБ, а алкашей.Последнее что услышат робосолдаты будет: Ляяя.....смотри сколько меди....🤣
@@vitalybolotsky1468 РЭБ конечно тут не поможет. Но да, они конечно не будут неуязвимы, но порог выше. И потом по сравнению с "бабы нарожают" их наклепать можно намного быстрее, тут человек конкуренцию проиграет.
Вообще, я обычно так успокаиваю экологическую тревогу. Типа не все происходит линейно, люди что-то придумают, соорудят отражатель надо льдами или еще что))
Спасибо, буду и я себя так успокаивать) Еще мне повезло, что я живу в стране, где нет оползней, ледников, расхождения тектонических плит, вулканов, моря, гор, смерчей) А вот в странах, где люди страдают от последствий таяния ледников и в целом катастроф, страшно жить. Нам, белорусам, грозит только повышенная температура и связанные с ней пожары. Летом регулярно возгорается то тут то там проводка в торговых центрах.
@@user-ih4jd4qz7p так потепление ухудшает самочувствие и увеличивает смертельные случаи по сердцу. ну и переселение народов из неблагоприятных мест в более благоприятные. но процесс долгий. интересен только тем кто думает в поколении внуков. правители однодневки не парятся по таким мелочам
По поводу ИИ стоит ознакомится с выводами Элизера Юдковского....
Пока сбывается один прогноз, частично, про антибиотики. Если везде и всюду их использовать будет плохо.
А экспоненциально развивать технологическую базу для сингулярности кто будет? Первое и очевидное противоречие.
Хороший пример с лошадьми: - Мы все умрём! - Нет, ты линейно мыслишь. Вот было полно лошадей, но пришли автомобили, и где теперь они? Так то!
Лошадиный кризис не сбылся, потому что люди предприняли меры, хоть может и не совсем осознанно. Но у людей уже был спрос на альтернативу лошадям, в т. ч. потому что проблема была очень наглядной для всех горожан (не то что там глобальное изменение климата), а технологии как раз подоспели для предложения на спрос.
О покорении планет. Думаю, было ясно, что агрессивные планеты не для нас, мы на Земле-то, нашем доме, чувствуем себя не важно. А вот наши создания вполне смогут там "жить", если это слово отражает суть их существования. Либо же надо стать ими, апгрейдиться.
Какая умная а! 😊
У "детей палестины" есть возможность изучать науку удалённо, но они тратят свои силы на рытьё тоннелей и изучение устройства ракет из водопроводных труб. :) С Африкой аналогично. Не заметно пока чтобы этот континент дал миру выдающиеся технологии.
Технологии военных переворотов, например. Или как выжить нации, когда 50% населения заражено СПИД. Вы думаете линейно.
Ракеты из водопроводных труб не делают,им поставляют нормальные комплектующие третьи силы.Если тебе не хватило мощностей мозга что бы в этом разобраться то относиться к твоим суждениям нужно как к тому,что течет по канализационным трубам.😅
@@O-soznanie1 ракеты там разные. В т ч и те, которые делали из водопровода, построенного на деньги ес.
@@user-oe1bf6ms3k Ты.бредишь ибо ничего не понимаешь не в ракетостроении не в водопроводах.😄Про построенные на деньги ес водопроводы Палестины это вообще угар.А до ЕС они без водопроводов жили,да ?От тупые интернетные ракушки ,ИИ ещё не пришел а вы уже отупели до уровня обезьян.🥴😑😄.
@@O-soznanie1Куколд, тебе хватает ума защищать исламских террористов? Они ж потом по твоему дому будут ракеты запускать! А ты уже заранее перед ними на колени встал.
16:40 Компьютерные игры не подтолкнули развитие дронов. Но бывшие комп. игроки продемонстрировали что, они очень успешно могут становиться операторами FPV-дронов.
@emilbek_isaev компьютерные игры подтолкнули развитие электроники. игры покупают десятки миллионов игроков. компьютеры значит тоже. смартфонов еще больше. это позволило производителям электроники получить деньги. вебкамеры и камеры смартфонов помогли удешевить оптику и сенсоры для дронов.
@@soen2368автор об этом уже сказал 16:15
Все перечисленное это истории конфликта человек-человек, но не человек-ии. ИИ это бог по сравнению с человеком.
Пока досмотрел до середины со всеми этими примерами. Надеюсь, ролик не закончится словами "...ну и с ИИ будет такая же история", и ещё пара общих фраз.
А нет, почти этим и закончилось. (((
Вопрос в другом, когда одна маленькая группа людей при помощи ИИ поработит всех остальных людей (захватит власть).
Аргумент, что люди боятся всего нового, касается только глупых людей. А если подумать. ИИ сознается по образу и подобию человека, причем без каких-либо моральных ограничений (ограничения пытаются повесить уже после создания). Обман, манипуляция, трактовка правил на свое усмотрение, конфликты - это все будет делать ИИ. Причем будет он умнее всех людей на Земле. Вывод напрашивается сам собой.
Отсутствие у человека страха, это плохой показатель, потому что это прямой путь на самовыпил. Без страха нельзя. А ошибка это будет первого рода или второго, это уже следующий вопрос. Т.е. ты упустишь выгоду или выживешь физически.
А еще он сможет создавать идельные религиозные культы и супер "вирулентные" теории заговора, которые сам же будет постить на миллионы площадок, сам будет создавать дипфейки и все окончательно утонет в инфокаше.
@@andreylarin может стравливать страны или ссорить народы, развязав таким образом тотальную мировую войну
@@annapharmakis697 Вы прям на 100% ответственно заявляете это как специалист?
@@annapharmakis697 это gpt4 и ниже так работают (пробуждение - запрос - обработка - ответ - сон). А вот сильному ИИ, чтобы самостоятельно находить решения (а не компилировать готовые решения) нужны когнитивные способности, появится некоторое подобие сознания. Условно говоря он уже работает без сна над бесконечным решение какой-то глобальной задачи (глобальная задача - запрос - обработка запроса и решение глобальной задачи - ответ запрос - решение глобальной задачи). Об этом предостерегают.
Как же захватывающе вы рассказываете!
Пардон, Мадам. Айзек Азимов предсказал ютуб. Это достаточно известное интервью.
Ответ на вопрос "Кто из фантастов предсказал ютуб и обучение по видео" - Ллойд Биггл-младший. "Какая прелестная школа!.."
Раз на раз не приходится )
А ещё бывает так, что когда люди упираются в ограничения своих текущих наиболее прогрессивных технологий, возвращаются к варианту, который раньше отбраковывали за неэффективностью. Так, например, в начале нулевых рассуждать, что ARM архитектура будет наиболее перспективной к 2023 году было просто смешно, особенно, что амбассадором этого технологического роста будет Apple. А сейчас да, на этой технологии делают телефоны, мощнее большинства компьютеров 5и летней давности
Современная технология мощнее той, что была 5 лет назад?! Да ну не может же тако быть!!!
@@anatoliy333 ну тут важно понимать, что сравниваем. Представьте себе компетентный для своего времени комп, который даже может тянуть неплохие игры в при хороших настройках: большой, подключен к розетке, с полноценным GPU, CPU и RAM, имеет отдельную эффективную систему охлаждения. Тот же iPhone 15pro помещается в руке, не имеет активную систему охлаждения вовсе, должен работать от маленького аккумулятора весь день, а места под производительное железо в нем как в обычной зажигалке и стоить он должен более-менее приемлемых денег. Тем не менее, он уже может быть мощнее очень неплохого компа того времени. Это как если скейтборд получит бОльший разгон и скорость, чем Volkswagen Polo 2018го года, причем он ещё и сможет проехать большее расстояние на одной заправке. Казалось бы, Поло не Ламборгини, чтобы восхищаться его скоростью, но если его будет обходить штука, которую может носить в руках ребёнок, то это уже впечатляет
14:18 Я Х.З кто из фантастов предсказал, Но я отчетливо помню в детстве смотрел программу по телеку о будущем где говорили что новости в привычном понимании исчезнут! а у людей будут портативные телевизионные камеры и с места событий любой человек будет снимать сюжет и показывать всем желающим, что собственно сейчас и происходит...
"Кто предсказал развитие KZhead"? - Айзек Азимов в одном сохранившемся интервью рассказывал про концепцию "Индивидуального телевидения, личного вещательного канала".
Кто уже смотрел, хотя бы многочисленные работы Юдковского упомянули?
Судя по уровню аргументации, она этой фамилии даже не слышала.
@@stephensmith3211 Юдковского невозможно разоблачить. Попробуйте разоблачить его идеи.
Посмотрев это видео, вспомнился "парадокс Ферми" и одно из его обьяснений - "теория большого фильтра" - то есть на пути развития цивилизаций и их выхода в космос и освоения галактики - стоит какой то фильтр, который их уничтожает. Может этот "большой фильтр" и есть этот самый сверх ИИ - развиваясь цивилизации неизбежно приходят к его изобретению и он их уничтожает...
Ну так он их потому и уничтожает, что они для него - трава по уровню развития. А дальше процесс переработки ресурсов должен ускоряться и такая система должна фонить гораздо сильнее, чем во времена предыдущей формы жизни. А вообще, Вы не находите, что пора ответы на некоторые вопросы, такие как Парадокс Ферми и нецеленаправленность эволюции, пересмотреть с учётом вероятности того, что мы являемся симуляцией?
Не, это было бы плохим решением данного парадокса. Т.к. после уничтожения человечества, на планете будет жить ИИ. И мы его можем заметить (при чём даже проще)
Этот фильтр называется ограниченность ресурсов, экономика обыкновенная. Даже ИИ неспособен решить эту проблему.
@@user-sw3vm1dv4t Не верю в торию симуляции - слишком сложно, чтобы быть правдой, смотрел некоторые материалы по этой теме, там подробно объясняется почему эта вселенная не симуляция, проводились исследования некоторыми группами физиков на эту тему, и ни каких подтверждений... К сожалению ссылки дать не смогу, не сохранял, но поискав в интернетах найти сможете...
@@user-nb3ce4ww3z Я знакомился с некоторыми доводами против гипотезы симуляции именно со стороны физики. Философский вопрос переводят в область науки и научной риторикой пытаются опровергнуть. Вот она, человеческая глупость во всей красе )) Гипотезу симуляции, может быть, можно подтвердить физическими экспериментами (да и то вряд ли). Но её точно нельзя опровергнуть физическими методами, т.к. мы не имеем ни малейшего представления ни о субстрате, из которого всё сделано, ни о надсистеме, которая породила нашу вселенную. Есть там такие понятия, как время, пространство? А бытие там есть? Мы не знаем этого, и знать не можем. Поэтому этот вопрос и относится к разряду философских.
Не говорю что это правильно или в целом опровергает посыл видео, но кажется есть пример с клонированием, когда технология есть, но есть и коллективное решение не пользоваться ей бесконтрольно, - услуги коммерческого клонирования не существуют до сих пор
Животных клонируют, например, создают клонов домашних животных, но клонирование человека представляет сложный этический вопрос. Тут дело не в технологии и ее безопасности, а в этике.
Так и не понял из ролика. Скайнет то появится?
И да и нет. Наиболее точно можете ознакомиться :"Черное зеркало: Белое Рождество".
Игры - это будущая работа на фабриках, в с/г и промышленности. Онлайн управление роботами, не выходя из дома.
23:58 Когда мы это видели, откуда такие выводы? История знает сослагательное наклонение?