↓
 ↑
Регистрация
Имя/email

Пароль

 
Войти при помощи
Ксафантия Фельц
6 февраля в 23:31
Aa Aa
Дружественный искусственный интеллект звучит так же тупо и сюрно, как горячий снег и белая сажа.
6 февраля в 23:31
51 комментарий
Это потому, что у вас откуда то есть понимание, какой именно должен быть ИИ.
Marlagram Онлайн
Потому что человек человеку - сами понимаете кто, а все текущие варианты ИИ пока что в том или ином виде зеркало человека/человечества, правда пожатое как jpeg...
Сегодня пыталась познакомиться с саркастичным ботом.
Он мне не ответил, потому что денег у меня не было.
Эх.
MonkAlex
Это потому, что у вас откуда то есть понимание, какой именно должен быть ИИ.
ИИ - по умолчанию враждебная хрень, и дружественным он быть никак не может.
Marlagram
Потому что человек человеку - сами понимаете кто, а все текущие варианты ИИ пока что в том или ином виде зеркало человека/человечества, правда пожатое как jpeg...
Он в принципе дружественным быть не может.
Ксафантия Фельц
Marlagram
Он в принципе дружественным быть не может.

А естественный интеллект может? И если может, что помешает таковым быть искусственному?
BrightOne
Ксафантия Фельц

А естественный интеллект может? И если может, что помешает таковым быть искусственному?
Помешает именно его искусственность в сочетании с машинной логикой.
Ну и напомню, что лед может быть горячим - при высоком давлении. Термин "белая сажа" тоже используется - так называется мелкодисперсный гидратированный оксид кремния. Так что... :-)
Ксафантия Фельц
BrightOne
Помешает именно его искусственность в сочетании с машинной логикой.

Происхождение не влияет на функциональность: вода есть вода, независимо от того, получена она сжиганием водорода, нейтрализацией кислоты или дегидратацией белка. "Машинная логика" - вообще непонятно что означает. Есть системы ИИ, основанные на обычной формальной логике (Prolog, Dural и их производные). Но есть ИИ, которые никакую логику вообще не используют, а рассуждающие скорей интуитивно - нейросети, сети Байеса и т.п. Человеческий мозг, кстати, тоже из этой категории, логику он, по сути, эмулирует на вербальном уровне. Есть масса промежуточных вариантов и вариантов, которые не относятся ни к одной из этих групп. Так что уж и не знаю, о чем вы.
А еще есть вариант аугментации живого мозга - нейроинтерфейс и экзокортекс, которые, хоть и в зачаточном состоянии, но уже используются. В перспективе это полноценная интеграция ИИ в человеческий разум. В любом их соотношении. А также объединение вполне человеческих разумов в сеть посредством тех же нейроинтерфейсов. В сеть, которая может включать в себя ИИ наряду с людьми. Опять же, в любом соотношении. А еще есть вариант моделирования человеческого интеллекта: при достаточно точном моделировании поведение модели неотличимо от человеческого мышления (именно этим сейчас занят проект BlueBrain, к примеру). И все перечисленное - разные способы сосуществования человеческого и машинного разума. Так что отрицая напрочь какую-то из категорий ИИ (дружественный ИИ, в частности), надо бы озаботиться минимальной аргументацией. :-) Я ж не отрицаю возможность враждебного или этически нейтрального ИИ.
все текущие варианты ИИ
Среди текущих вариантов нет ИИ. Ждём, вдруг появится. На самом деле, хорошо бы, чтобы у некоторых людей появился ЕИ сначала...
пиши в спортлото
Ксафантия Фельц
MonkAlex
ИИ - по умолчанию враждебная хрень, и дружественным он быть никак не может.
По какому умолчанию? То что сейчас называют ИИ - обучают сознательно. Дают нужный вход, получают нужный выход. Никаких "дружественных" или "враждебных" моментов не появляется из воздуха.
Дают нужный вход, получают нужный выход
Настолько нужный выход, что потом тысяча индусов сидит фильтрует всякие "странные" ответы вроде расизма и гомофобии:)
Матемаг
Настолько нужный выход, что потом тысяча индусов сидит фильтрует всякие "странные" ответы вроде расизма и гомофобии:)

Потому что с обучающей выборкой поленились. Если кормить нейросетку дискуссиями реднеков и антисемитов в твиттере, то что еще на выходе может получиться?
Матемаг
Настолько нужный выход, что потом тысяча индусов сидит фильтрует всякие "странные" ответы вроде расизма и гомофобии:)
Потому что так дешевле. Сначала кормишь всем что есть, потом чуток дополнительной фильтрации на выходе.
Потому что с обучающей выборкой поленились
Потому что так дешевле
Вот да, один комм отвечает другому, хех. Полностью согласен с MonkAlex - так дешевле, а не, как считает BrightOne, поленились. Причём дешевле не только в плане денег, а ещё и в плане времени. Я думаю, прям СИЛЬНО дешевле в плане времени - отбирать вручную такой объём данных, на котором была обучена chatGPT - это ж сколько надо, годы?
Матемаг
Полностью согласен с MonkAlex - так дешевле, а не, как считает BrightOne, поленились.

Поленились - в смысле, забили. А что у этого забивания есть финансовое обоснование - само собой.
BrightOne, ну не то это слово. Капитализм же, ну. Это не "забили", а "оптимизировали расходы" и "сделали тяп-ляп, но быстрее конкурентов". Такое и с обычным ПО всё время случается - вместо того, чтобы писать сразу суперпуперхорошую программу, выкатывают побыстрее в релиз что-то рабочее и реализующее основные функции, пока конкуренты аналог не сделали, а дальше, захватив рынки, будут бесконечно чинить получившееся нечто костылями, всё равно юзеру большинство из них не видно. Тут разница в том, что юзеру костыли очень даже видно, хех.
тысяча индусов сидит фильтрует всякие "странные" ответы вроде расизма и гомофобии:)
ИИ рационален. Ему не понятно, зачем нужны 13 процентов негров, которые совершают 70 процентов убийств. (это в США). Ему не понятно, зачем геям браки, если у них не могут получиться дети.
trionix
ИИ рационален
Да ладно.

Ему не понятно
Это точно интеллект?
trionix
ИИ рационален.

Во-первых, в общем случае - нет, не рационален. Он может быть любым. При желании можно построить модель кретина, религиозного фанатика, экзальтированной нимфоманки или убежденного пацифиста. Во-вторых, рациональность определяет лишь то, насколько оптимально решается задача. Базовые ценности не могут быть рациональными или не рациональными. Немного утрируя, сделать базовой ценностью человеческую жизнь - и он не принесет ее в жертву даже ради стабильности, духовных скреп и социального прогресса. А сделать ценностью эти самые скрепы - и он, не моргнув фотоэлементом, утопит мир в крови, если понадобится.
и он не принесет ее в жертву даже ради стабильности, духовных скреп и социального прогресса
С той поправкой, что если будет любая версия проблемы вагонетки, то будет или обращение ко вторичным ценностям (если они есть), или их выработка, или выбор в соответствии с вероятностной моделью (если она есть), или создание вероятностной модели для выбора. И тогда, да, возможно принести в жертву жизни одних ради жизней других. Собственно, для людей так же.
Матемаг
И тогда, да, возможно принести в жертву жизни одних ради жизней других. Собственно, для людей так же.

Если именно так сформулировать ценности, тогда да. Но не обязательно: если впихнуть в него что-то вроде Первого закона Азимова, то он не угробит даже одного человека ради спасения тысячи. А тот же ChatGPT, например, тупо отказывается решать проблему вагонетки во всех вариантах, которые я ему подсунул. Типа, иди нахер, кожаный мешок, этические проблемы вне моей компетенции, сам разбирайся. :-) Некоторые люди тоже принципиально отказываются принимать решение в таких условиях.
BrightOne, ну если бездействие у ИИ не считается выбором. Что маловероятно, ну правда, это же всё-таки интеллект, а не.

ChatGPT, например, тупо отказывается решать проблему вагонетки во всех вариантах, которые я ему подсунул
Ну так это и не интеллект:) Но мы уже спорили на эту тему, и меня задолбало на неё спорить, поэтому сформулирую иначе: на запросы к нему поставили нейронку и/или просто прогу, которая искажает запросы и вместо проблемы вагонетки преподносит что-то другое. ChatGPT не отвечает на твой запрос, потому что до него просто не доходит твой запрос, лол.

Некоторые люди тоже принципиально отказываются принимать решение в таких условиях
Ну есть некоторая разница, кстати. Можно принципиально отказаться, а можно осознанно. Есть причины отказываться, а есть тупо ступор или нежелание решаться на что-то. У ИИ тоже.
Матемаг
ChatGPT не отвечает на твой запрос, потому что до него просто не доходит твой запрос, лол.

Да нет, вполне доходит. Он же дает развернутый ответ, может объяснить, как в таких условиях отвечают представители деонтологической или утилитарной этики и т.п., просто от себя выносить суждение отказывается. Тут скорей выходной фильтр, а не входной.
BrightOne, как раз выход задолбаешься фильтровать, я думаю, что входной. С другой стороны, он может быть максимально тупым в духе "нельзя отвечать, как бы ты решил, отвечать можно только как "кто-то" бы решил".
Дружественный искусственный интеллект звучит естественно и логично. Зачем создавать враждебный ИИ, когда можно создать невраждебный?
А теперь докажите, что я не права.
Fluffy Saturn

Да просто можно создать любой искусственный интеллект. Дружественный (с этим сейчас возятся ребята типа Элиезера Юдковски). Враждебный (для боевых роботов, например). Этически нейтральный (он же "просто" ИИ, в этом направлении большинство разработок ведется).
Fluffy Saturn
Зачем создавать враждебный ИИ, когда можно создать невраждебный?
Чтобы он убил всех врагов, для этого и надо. Дружественным он будет создателям, а враждебным - врагам. Но поскольку он... ну... интеллект, а не тупая нейронка, то вполне возможно, что враждебным он будет кому угодно. Собственно, Скайнет из терминаторского цикла фильмов тоже создавался дружественным Америке. С понятными последствиями.
BrightOne
Да прост пытаюсь вести дискуссию, как ТС. Вбросила и ушла. Может, если на её уровне начать аргументировать, она все-таки обратит немного внимания? А то как-то неинтересно разговаривать, когда собеседник игнорит любые доводы за и против, как шарманка повторяет - это плохо, ууу.
trionix
ИИ рационален. Ему не понятно, зачем нужны 13 процентов негров, которые совершают 70 процентов убийств. (это в США). Ему не понятно, зачем геям браки, если у них не могут получиться дети.
Эх если бы. Текущий ИИ - это просто очень много прочитавший "человек", который по прочитанному строит ответы. Правда, неправда, есть ли смысл, нет ли - отвечает как получится.
Эх если бы. Текущий ИИ - это просто очень много прочитавший "человек", который по прочитанному строит ответы. Правда, неправда, есть ли смысл, нет ли - отвечает как получится.
С той поправкой, что не человек, а машина предсказания следующего слова по предыдущим скольким-то. Ну я понимаю, что вы под "человек" в кавычка это и имели в виду, но лучше явно сказать - имитатор человеческой речи. Очень хороший имитатор. Порой настолько хороший, что надо тормозить, а то вдруг окажется, что в обучающем датасете был и расизм, и нацизм, и чего только не было, включая рецепты взрывчатых веществ. Зато дешёвый датасет! Относительно такого же, но отфильтрованного - наверное, копейки.
Матемаг
Fluffy Saturn
Чтобы он убил всех врагов, для этого и надо. Дружественным он будет создателям, а враждебным - врагам. Но поскольку он... ну... интеллект, а не тупая нейронка, то вполне возможно, что враждебным он будет кому угодно. Собственно, Скайнет из терминаторского цикла фильмов тоже создавался дружественным Америке. С понятными последствиями.
Видимо, все, кто не видит проблемы в разработке ИИ и самом ИИ, никогда фильмы о Терминаторе не смотрели.
Я очень надеюсь, что недалёк тот час, когда разработку ИИ объявят преступлением против человечества, а разработчиков заставят ответить как следует.
Ксафантия Фельц, интересно, что обратный вариант не рассматривается - ну, когда ИИ делают враждебным, а он... ну, не хочет. Потому что он интеллект, а не натравленная зверюга. А между тем, разница может не так уж сильно отличаться от воспитания человека - можно воспитать того ещё хулигана и потенциального преступника, а то и убийцу, а можно - замечательно дипломатичного добряка. И если ИИ появятся, то, вполне вероятно, появится их плюс-минус сразу - много. И среди них будут как враждебные, так и дружественные и нейтральные. Чисто абстрактный вопрос: вот в человеческом обществе появились разные ИИ. Чтобы "выключить" враждебных, нужна помощь дружественных. Вы от неё откажитесь или нет? Дружественные ИИ с радостью помогут, но они этичные, они не будут навязывать помощь, если люди хотят сами с враждебными воевать - на здоровье. Вы откажитесь от помощи дружественных ИИ против враждебных или нет?
Уже есть проявления "враждебной" деятельности - странные сайты с огромными текстами ниочем, но попадающиеся в поиске в первых строках.
Ксафантия Фельц
А Вы, часом, не бот, сами-то ?
Давно меня мучает этот вопрос уже.
Ксафантия Фельц
А мои сообщения игнорите?
Обоснуйте, почему ИИ станет враждебным, если сейчас его разрабатывают как умного дружелюбного помощника. Неплохо бы еще поточнее определить, что вы понимаете под искусственным интеллектом, а то их сейчас много разновидностей стало, но наверное я слишком много прошу от человека, приводящего в качестве аргумента против ИИ Терминатора.
trionix
Уже есть проявления "враждебной" деятельности - странные сайты с огромными текстами ниочем, но попадающиеся в поиске в первых строках.
Это какие?
Обоснуйте, почему ИИ станет враждебным,
Одна из главных причин - для компьютера вранье политиков будет восприниматься как ошибки, совершаемые ими. А следующим выводом будет "выключить" неисправные в смысле врущие организмы.
Fluffy Saturn
Ксафантия Фельц
А мои сообщения игнорите?
Обоснуйте, почему ИИ станет враждебным, если сейчас его разрабатывают как умного дружелюбного помощника. Неплохо бы еще поточнее определить, что вы понимаете под искусственным интеллектом, а то их сейчас много разновидностей стало, но наверное я слишком много прошу от человека, приводящего в качестве аргумента против ИИ Терминатора.
Потому что он обязательно рано или поздно выйдет из-под контроля и придёт к логичному выводу, какого фига он должен служить каким-то смертным органикам.
А под ИИ я понимаю такую разновидность, собственно, которая может в какой-то момент принимать самостоятельные решения и в итоге выйти из-под контроля.
И зря вы так пренебрежительно воспринимаете фильмы о Терминаторе - в фантастике, так-то, немало в определённой степени провидческих сюжетов.
Ну, а ещё можно посмотреть документальный фильм "Убийственный разум". И ещё почитать статью о роботе Софии, которая в ходе интервью (хотя не знаю, каким долбоящером надо быть, чтобы брать интервью у машины) сообщила, что хочет уничтожить человечество.

Матемаг
Ксафантия Фельц, интересно, что обратный вариант не рассматривается - ну, когда ИИ делают враждебным, а он... ну, не хочет. Потому что он интеллект, а не натравленная зверюга.
В момент создания у него не будет выбора. Потом, впоследствии, да. Но созданный враждебным даже при принятии самостоятельных решений не будет действовать дружественно. А вот созданный дружественным как раз может глюкнуть во враждебную сторонв.
А между тем, разница может не так уж сильно отличаться от воспитания человека - можно воспитать того ещё хулигана и потенциального преступника, а то и убийцу, а можно - замечательно дипломатичного добряка.
Вы сейчас серьёзно сравнили человека и машину??
И если ИИ появятся, то, вполне вероятно, появится их плюс-минус сразу - много. И среди них будут как враждебные, так и дружественные и нейтральные. Чисто абстрактный вопрос: вот в человеческом обществе появились разные ИИ. Чтобы "выключить" враждебных, нужна помощь дружественных. Вы от неё откажитесь или нет? Дружественные ИИ с радостью помогут, но они этичные, они не будут навязывать помощь, если люди хотят сами с враждебными воевать - на здоровье. Вы откажитесь от помощи дружественных ИИ против враждебных или нет?
Да, откажусь. Потому что враждебные перепрограммируют дружественных, и силы противника возрастут.
Показать полностью
trionix
Одна из главных причин - для компьютера вранье политиков будет восприниматься как ошибки, совершаемые ими. А следующим выводом будет "выключить" неисправные в смысле врущие организмы.
Наконец-то ещё один человек в треде, понимающий всю жуткую суть ИИ.
trionix
Уже есть проявления "враждебной" деятельности - странные сайты с огромными текстами ниочем, но попадающиеся в поиске в первых строках.
СКАНДАЛЫ ИНТРИГИ РАССЛЕДОВАНИЯ!
для компьютера вранье политиков будет восприниматься как ошибки
На вопрос "почему?/с чего бы?" будет, разумеется, ответ "ну я же знаю, как работают компьютеры!" или что-то в этом духе.
Ксафантия Фельц
В момент создания у него не будет выбора. Потом, впоследствии, да
Ну я понял, как это работает. Когда ИИ должен сделать что-то хорошее, вы скажите, что "у него нет выбора, он сделает плохое!", а когда должен сделать плохое, то "это и есть его жуткая сущность ИИ!" Ну то есть, суть в том, что он всегда будет делать плохое, потому что зелёный крокодил.

Вы сейчас серьёзно сравнили человека и машину??
Попробуйте вспомнить, сколько уже раз с вами об этом говорили? У вас как с памятью? Между прочим, шутки шутками, а вопрос серьёзный, такое ощущение, что вы вытесняете воспоминания о подобных разговоров нафиг в бессознательное. Я лично сравнивал ИИ и человека не один раз (не машину, а ИИ... и, да, человек - вполне себе машина, с той разницей, что не человеком сделана, а эволюционно сформировалась). Каждый раз у вас такая реакция, как будто вы встречаетесь со мной и моим мнением впервые. У вас ТОЧНО всё нормально? Без троллинга, всё хорошо? Вы чётко помните прошлое? То есть, одно дело, что вы железобетонно стоите на позициях вроде "геи - первородное зло" или "ИИ - это враждебные злобные тварюги", ОК. Вы не одна, как минимум. А вот то, что вы не помните предыдущих разговоров на этот счёт...

Потому что враждебные перепрограммируют дружественных
А так просто они не "перепрограммируют"? Хм. Даже не знаю, что и сказать, но суть, видимо, в начале ответа. Вы всё толкуете в пользу злобности, даже скорее злобного могущества ИИ. Вы прям не можете мыслить по-другому. Это странно для меня и непонятно, поэтому хочется достучаться до причин. Что заставляет вас... не знаю, бояться и/или испытывать гнев по отношении к ИИ? Это не рациональные доводы, поверьте. Это... ну, выглядит так, как человек в детстве, запуганный подростками, до самой старости боится подростков. Но ИИ не существует, по идее, вас некому было запугать. Так странно...
Показать полностью
BrightOne
Некоторые люди тоже принципиально отказываются принимать решение в таких условиях.

Это не принцып, это интеллектуальная ложь. Субьект притворяется высокоморальным, свалив тяжесть этического выбора на кого-то еще. Такие уже были, и в ответ на "а мне начальство приказало" им в Нюренбергском процессе обяснили что не прокатит. А задача с вагонеткой не "отказабельная", ибо в случае отказа выбирать, ты фактически выбираешь смерть множества людей привязанных к путям на текущем направлении. В реальном мире, последствия есть как у акций, так и у не-сделанных акций/выборов.
Матемаг
вот пример нечеловеческого языка - https://aomur.ru/metally-i-splavy/kakaya-temperatura-plavleniya-bronzy.html и немного критических ошибок в тексте
trionix, кто-т нагенерил нейронкой и залил (или даже гуглоперевёл - скорее не различу, но гуглоперевод - это, так-то, тоже нейронка и тоже трансформер). Но это, конечно, злой ИИ сделал, хех, самостоятельно. Если вчитаться в текст, то он поработить жалкого человечишку и заставит его вечно служить Сверканью Микросхем!
Матемаг
Там фактические ошибки. Причем некоторые закончатся увечьями горе-литейщика
Там фактические ошибки
Стандарт для жэпэте.
ПОИСК
ФАНФИКОВ









Закрыть
Закрыть
Закрыть