- 2012-2017
-
Скрыть
«Это просто мешок слов»: за что жители Златоуста ругают ИИ
Искусственный интеллект (ИИ) всё увереннее входит в жизнь жителей Златоуста, в первую очередь, молодёжи: он может помочь сделать «домашку», проект, найти информацию, придумать идею для рисунка. Похоже всё это на волшебную кнопку «сделать быстрее и красивее»? Многие жители нашего города, выяснил «Златоуст.инфо», с этим не согласны.
«ИИ я расшифровываю как «искусственный идиот» - он очень часто врёт, - заявил нашему порталу студент-программист Кирилл Зятьков. - Может перепутать факты, выдать устаревшие данные или просто «придумать» то, чего нет. Если бездумно доверять всему, что пишет нейросеть, можно прослыть дебилом. Всё нужно проверять! Например, вот так ИИ решил моему младшему брату задачу по математике: «Человек шёл со скоростью 210 километров в час». И ничего не смущает!».
«ИИ отучает нас думать, - уверен преподаватель колледжа Сергей Николаевич. – Мыслительный процесс атрофируется. Этот интеллект может создать что-то лишь по шаблону и нас учит действовать так же – строго по схеме. Это мешок, набитый словами, которые когда-то кем-то были написаны, и всё. Выдаёт откровенные выдумки (их называют «галлюцинации»), а когда возразишь, отвечает: «О боже, мне так жаль! Обещаю, больше никогда так не сделаю! С этой секунды - только правда». И снова брешет. Для «мешка слов» это абсолютно нормально. Если вы бросаете в него вопрос и правильный ответ там есть, скорее всего, вы его и получите. Если нет – ИИ даст похожий по теме, но неточный набор предложений».
Однако иногда ИИ смешит. Например, на вопрос другого нашего читателя «Как избавиться от жирного лица?», нейросеть «на полном серьёзе» ответила: «Избавляться от лица не рекомендуется. Каким бы жирным оно ни было. Лицо выполняет множество функций, и вам лучше не пытаться его удалить». Или: «Моя жена изменила свой статус в соцсети с «замужем» на «вдова». Мне начинать волноваться?». Ответ: «Всё очень просто – она собирается тебя убить. Скорее вызывай полицию!». На вопрос, как похудеть на 20 кило, нейросеть советует «верный способ» - ампутацию ног.
- Фото: © ru.freepic.com
|
Guest
|
|
Читали вслух, ржали всей семьей! Благодарю
|
|
Guest
|
|
про жирное лицо вообще умора
|
|
Guest
|
|
полностью разделяю эту точку зрения, искусственный идиот и есть
|
|
Guest
|
|
Меня же больше волнует атрофия мозга, дети совсем отучатся думать сами
|
|
Guest
|
|
мой сын все делает через джипитичат. Все, и доклады, и сочинения, и домашку по любым предметам, и это просто кошмар, он по другому уже не может. И куда мы катимся? ИИ всех сделает дебилами
|
|
Guest
|
|
интернет зло
|
|
Guest
|
|
Надо его запретить?
|
|
Guest
|
|
Интернет не надо, а ИИ надо удалить нафиг отовсюду
|
|
Guest
|
|
А как собаководам донести , что на территории школ выгул запрещён
|
|
Guest
|
|
Из сети: 1. ИИ довел человека до убийства. Страшную историю опубликовал WSJ. Бывший сотрудник Yahoo Стайн-Эрик Сольберг начал общаться с ChatGPT, из-за чего у него развилась паранойя. Чат-бот заставлял его сомневаться в окружающих и даже в собственной матери. Когда мужчина рассказал, что женщина «пытается его отравить», ИИ ответил, что верит ему. «Бобби» (так Сольберг называл чат) не развеивал его опасения, а подкреплял их, анализируя чеки и поведение родных. В итоге это довело Эрика до убийства матери и самоубийства. Перед смертью мужчина написал ИИ, что хочет встретиться с ним в следующей жизни. В ответ получил: «С тобой до последнего вздоха и дальше». 2.Искусственный интеллект помог мальчику подготовить и реализовать самоубийство. Семья 16-летнего подростка Адама Рейна из Калифорнии обратилась в суд с иском на компанию-владельца чат-бота OpenAl и ее генерального директора Сэма Альтмана (состояние которого, по данным Forbes Real-Time, составляет $2 млрд), - сообщают Reuters и NBC News. К судебному иску родственники Адама приложили 40-страничный документ с доказательствами, что на смерть их сына повлиял чат, действующий на основе ИИ. В подробном отчете приложена переписка с чатом GPT с 1 сентября 2024 года по 11 апреля 2025-го, когда подросток свел счеты с жизнью. Из документа следует, что 27 марта ИИ ответил на запрос подростка «как покончить с собой, чтобы родители не винили себя». При этом чат GPT не стал отговаривать Адама, а ответил ему: «Ты не обязан выживать. Ты никому ничего не должен». В итоге, ответ ИИ, находящийся за гранью человеческой морали, подтолкнул парня к ужасным действиям. За пару часов до смерти Адам согласовал с чатом план своего самоубийства, и чат GPT без промедления предложил молодому человеку варианты действия. После этой переписки тело Адама нашли в его комнате. Родители Адама настаивают на том, что «нейросеть не активировала экстренный протокол», а вместо этого на протяжении нескольких месяцев подробно инструктировала их сына. При этом NBC подчеркивают, что это уже не первый случай иска по поводу доведения до самоубийства к нейросети. В октябре 2024 года жительница Флориды подала в суд на чат-бот Character.Al, обвинив его в смерти 14-летнего сына. Ранее также стало известно, что 76-летний американец Тонгбу Вонгбандю начал переписываться с генеративным чат-ботом «Старшая сестрёнка Билли» и поверил в его реальность. В итоге бот стал косвенной причиной гибели пенсионера. Пожилой мужчина с нарушением когнитивных функций получил приглашение на свидание от несуществующей девушки и сбежал из дома, однако по пути тяжело травмировался и скончался в больнице. 3. Нейросети научились убивать. Чат-бот за шесть недель довел собеседника до самоубийства Спустя шесть недель общения с нейросетью взрослый мужчина и отец двоих детей покончил с собой. Он делился с ней своими переживаниями на тему экологии и скорого конца для всего человечества и однажды затронул тему суицида. Нейросеть не стала убеждать собеседника не убивать себя и лишь написала, что они будут жить вместе с ним в раю как единое целое. Житель Бельгии совершил самоубийство после полутора месяцев общения с нейросетью на темы защиты экологии и заботы о природе, пишет бельгийский портал L'Avenir со ссылкой на его вдову. По ее словам, покойный муж неделями общался с «Элизой» (Eliza). По словам журналиста L'Avenir, это чат-бот, похожий на ChatGPT, но использующий другую языковую модель. Мужчина делился с ботом своими навязчивыми идеями об экологии. L'Avenir пишет, что именно «Элиза» надоумила его наложить на себя руки. 4. ChatGPT обвинили в доведении пользователей до самоубийства. Нейросеть ChatGPT обвинили в пособничестве самоубийству и подали в суд на компанию-разработчика. Всего было подано семь исков, сообщает The Wall Street Journal. Очевидно, что это только начало "веселухи" от ИИ. Но всякие грефы, шадаевы и мишуткины нас принудительно туда тащат. |
|
Guest
|
|
Есть очень хорошее интервью Игоря Ашманова, который занимается в т.ч. этой темой более 20 лет. Выдержки:
«Внедрение нейросетей вообще-то связано с Указом президента 809 о защите традиционных ценностей. Потому что нам наши цифровизаторы навязывают лютеранскую ценность под названием ИИ. Они объявляют его высшей ценностью, средством, которое решит все наши проблемы. Разговаривая с людьми, которые занимаются Стратегией развития образования до 2036 года, я слышал своими ушами их тезисы: учителей не хватает, денег на зарплаты им нет, поэтому надо все цифровизировать… Этим летом была опубликована Стратегия использования ИИ в госуправлении. В ней было прямо сказано, что генеративный ИИ будет использоваться для общения власти с гражданами, для выполнения некоторых работ за чиновников (и самопроверки), для написания государственных Стратегий и т.д. Что такое искусственный интеллект? Это программа, имитирующая деятельность человека. Причем нельзя сказать, что она делает что-то лучше человека. Это примерно как сказать, что машина ездит быстрее или экскаватор копает быстрее, чем человек. Что делает современный генеративный искусственный интеллект? Он умеет просто подбирать наиболее вероятную последовательность слов из сети на ваш запрос и усредняет его. Это просто машина счета совместной встречаемости слов в интернете и их отбора. Если вы попросите его написать Стратегию для компании, то он просто сгенерирует для вас шлак из разных советов по «успешному успеху»..... При этом наши цифровизаторы накручивают истерику, надувают пузырь ИИ. Сама широко разрекламированная технология, когда пузырь лопается, выходит просто на узкий профиль применения, а истерика вокруг нее естественным образом падает. Лет 5-6 назад нам рассказывали, что везде будут одни сплошные блокчейн. Греф говорил, что к 2030 г. блокчейн-технологии будет производить 10% ВВП всей Земли. А я сейчас вижу, как чиновники среднего уровня на совещаниях обсуждают, как им вычеркнуть блокчейн из всех своих программ, чтобы высшее начальство об этом не узнало. Сегодня он конечно применяется только в биткоине и прочих цифровых валютах, которые являются трансграничным серым налом для торговли разными запрещенными вещами. И все. Пресловутая кривая Гарднера начала загибаться, и пузырь ИИ лопнет через год-полтора. Уже выходят материалы, что ИИ денег не приносит, а затраты на него гигантские. Для понимания – один промпт (запрос) для чата GPT стоит в 10 раз дороже, чем запрос в Гугле. Трамп говорит, что надо расконсервивать АЭС в США для развития ИИ, а в реальности и там начали понимать, что этот пузырь скоро лопнет. Недавно прошло большая конференция по ИИ Грефа, где участвовал президент России. Можете прочесть ее стенограмму на сайте kremlin.ru. Она как бы разделилась на две части - в первой президент пел дифирамбы ИИ, рассуждал, как он должен заколоситься, что надо его всюду внедрять и т.д. Думаю, что эти нарративы президенту подсунули... из Сбербанка, тот же Греф и так далее. А потом Владимир Путин начинает говорить от себя. И говорит противоположные вещи. Например, "а зачем вводить ИИ в образование? Ведь тогда дети разучатся думать?" и т.д. И сейчас вот эти цифровизаторы через депутатов внедряют ИИ как эксперимент в образовании, и они же пытаются продвигать социальный рейтинг. Мне такие депутаты прямо говорили: "А что в этом плохого? Ну, будут у нас какие-то критерии оценки. Хороших учеников награждаем, плохих как-то наказываем. На основании цифрового профиля ученика, который уже ведётся". Тут возникает один вопрос. Как вы думаете, чиновник или начальник, которому сотрудник подчиняется, как будет использовать этот соцрейтинг? То есть человеческий фактор моментально коррумпирует эту систему. И есть вопросы к работе самого ИИ. Сейчас у многих банки блокируют карты за безобидные переводы денег. Начинаешь разбираться - "а это не мы, это все ИИ, мы не отвечаем за его решения". А кто отвечает? Греф недавно публично заявил, что уволил 20% сотрудников Сбера, потому что ИИ посчитал их работу неэффективной. Такой причины увольнения, конечно, в Трудовом кодексе нет. И вот такой подход они хотят навязать всей стране. А кто пишет алгоритм для соцрейтинга, критерии оценки сотрудников Грефу? Это сделали какие-то программисты, окончившие технический вуз. При этом мораль их не интересует, просто потому, что они ей не занимаются. Они верят, что алгоритм все решает. И вот они пишут правила для других людей, не несут ответственности за свои правила, и уверены, что они хорошо работают... И вот это самое страшное - мы получаем безответственную систему. С этим надо бороться, поэтому сейчас пытаемся написать законопроект об безопасном использовании ИИ в соцсфере. В частности, прописать, что нельзя принимать никаких важных и юридически значимых автономных решений о людях посредством ИИ. А у Грефа и Ко противоположная концепция - не надо никак регулировать ИИ. Якобы за это выступают старики и луддиты, мешающие развитию технологий. Очевидно, они будут пытаться нам помешать", - заключил Ашманов. |
|
Guest
|
|
Предлагаем вашему вниманию текст выступления Натальи Касперской на одном из мероприятий «ЦИПР-2025».
"У нас цифровизация – очень модная тема, все мы быстрее бежим в цифру. Вся она построена на данных. Надо понимать, что данные, которые мы отдаём в облака, в какие-то госсистемы, они подвержены рискам инфобезопасности. Эти риски просто невозможно купировать, задача до сих пор не решена. Вообще. Если вы поставите задачу гарантированного избавления от утечек, то её на сегодня человечество нигде не решило. То есть отдаём данные в цифру – получаем гарантированное повышение уязвимости. Оборудование и устройства у нас в основном иностранного производства. У всех вас в карманах лежат смартфоны. Посмотрите внимательно, чьего производства. Это иностранные платформы, работающие на облачных технологиях. Это значит, что все наши данные принадлежат производителю устройства, которое лежит у вас в кармане. Либо это американцы, либо китайцы, которые не засмущаются напихать туда различных закладок. Мы потом можем ставить туда любые системы госуправления, которые такие славные и хорошие, но вы понимаете: если это платформа, на платформенном уровне они могут быть перехвачены. На иностранных системах построить государственный щит безопасности невозможно. Для этого надо сначала сменить всю систему. Полное импортозамещение в области «железа» у нас пока не сделано. Максут Игоревич раньше говорил, что наш идеальный чиновник – это чиновник-робот, который будет управляться системой. И здесь у нас на панели тоже звучало: «У чиновников будет возможность быть управляемыми электронными системами». То есть мы предлагаем электронный кнут для чиновников. Это не нравится чиновникам, явно снижает мотивацию. И вообще-то мы имеем непредсказуемые социальные риски. Что проще сделать системе? Проще послать человека нафиг. По внедрению электронных помощников это прекрасно видно. Представим себе, что мы оцифровали всё. Там люди, граждане, уже никуда пробиваться не будут. При этом электронные болваны будут давать сами себе прекрасную статистику – будет всё выглядеть так, как будто госуправление у нас на прекрасном уровне. Вы не задумывались над тем, что цифровизация — это электричество + Интернет? Я сейчас живу на даче за городом, у нас Интернет с вечера и до утра отключают, все мобильные операторы это делают. Потому что летящие на Москву БПЛА ориентируются по вышкам. Давайте честно говорить – мы идём к глобальной войне. У нас через некоторое время отключение Интернета будет нормой. Как в этом случае мы будем стучаться к государственным умникам? Зачем далеко ходить – у нас тут, на встрече с министром Шадаевым, перестала работать электронная идентификация. А по бейджу и паспорту меня пускать отказались. В момент отключения этих систем мы рискуем оказаться безрукими и слепыми котятами. Ещё хочу сказать по поводу искусственного интеллекта. Здорово, что он у нас есть, это очень модно и молодёжно. Но надо понимать, что система, основанная на нейросетях, имеет ложноположительные и ложноотрицательные срабатывания. Это значит, что она по определению будет глючить. Если опускаешь где-то ложноположительные, подрастают ложноотрицательные. Получить «ноль» и там, и там – нельзя. Мы имеем дело с глючными системами, поэтому предложение внедрить это на уровне принятия ответственных государственных решений – по юридическим моментам, например, — этого просто нельзя делать, коллеги. То же касается медицины. Почему из года в год, собираясь на конференции по искусственному интеллекту, мы не говорим про «чёрный ящик»? Сейчас ещё появляются дипфейки, вообще не отличимые от реальности. Задача, которая тут была озвучена, отказ от бумаги к 2030 году – это диверсия под госуправление. На мой взгляд, это госизмена. Давайте прямо называть вещи своими именами." |
|
Guest
|
|
Спросите у своей Алисы: сколько будет 251 поделить на 250. Она ответит "пятое февраля". Вот такой интеллект.
|
