Перейти к содержимому

 

Фотография
- - - - -

Мифы об искусственном интеллекте

искусственный ителллект нейросеть творчество робот чат-бот ChatGPT

  • Авторизуйтесь для ответа в теме
Сообщений в теме: 7

#1
Merilyn

Merilyn

    Мастер

  • Администраторы
  • 15 798
  • 8 420 сообщений
  • Пол:Женщина

Отправлено 17 февраля 2025 - 11:26

Миф 1. У ИИ есть способности к творчеству
Глядя на творения нейросетей вроде Midjourney, Stable Diffusion или DALL·E 2, многие люди прочат конец профессии художника. Ведь то, что человек будет рисовать часами и днями, машина может создать за секунды. Значит ли это, что искусственный интеллект превосходит живой мозг в креативности?

ИИ может неплохо подражать творчеству людей, но все его произведения так или иначе похожи на то, что мы уже видели или слышали. Нейросети просматривают тысячи и миллионы картинок, а потом создают на их основе нечто подобное. Но это совсем не то же, что работа художника с референсом, — ведь ИИ банально не понимает, что он копирует.

Самый заметный пример: нейросети испытывают значительные затруднения с прорисовкой рук. ИИ просто не может сообразить, сколько пальцев должно быть у человека.

Также нейросети плохо умеют рисовать узоры и паттерны, буквы (на картинках, где должны быть тексты, вставляют белиберду), здания и автомобили, да и просто персонажей в позах, отличающихся от распространённых «сидит», «стоит», «лежит». Они не способны различить передний и задний фон объектов, не могут работать с перспективой и лишены чувства пространства.

 

Untitled-1_1685526255-630x315.jpg
Запрос: «Две руки держатся друг за друга». Изображение: Stable Diffusion Online

 

Сам ИИ свои слабости отрицать не намерен. На вопрос, почему он не преуспел в изображении пальцев, ChatGPT отвечает:

«Искусственный интеллект не умеет рисовать руки, потому что для этого ему нужно понимать анатомию человеческого тела и основы рисунка. И хотя ИИ может быть обучен создавать изображения людей или животных, он не способен в полной мере передать многие нюансы и детали, которые можно заметить только при наблюдении за реальным объектом. Кроме того, создание изображений с помощью ИИ — это всего лишь математические расчёты, а не процесс творчества, который требует от человека интуиции и эмоциональной составляющей».

Так что нейросети художников не заменят. Другое дело, что они могут стать для последних хорошим источником вдохновения. Ведь сгенерированные ИИ картинки можно использовать как эскизы для собственных, более проработанных изображений.
 
Миф 2. ИИ всегда непредвзят и беспристрастен

 

2_1682678471_1685526423-630x315.jpg
Запрос: «Робот в судейском парике и с молотком выносит приговор в зале суда». Изображение: Stable Diffusion Online

 

Многие мечтают, чтобы настали времена, когда государствами будут править нейросети. Считается, что машины, в отличие от людей, принимают решения, руководствуясь исключительно логикой, а не эмоциями и желаниями. Представьте неподкупные суды, которые всегда выносят справедливые приговоры, государства, относящиеся ко всем своим гражданам одинаково, правительства, создающие только разумные законы. Здорово же.

Вот только на практике оказывается, что ИИ вполне может быть предвзят. Ведь нейросети обучаются на данных, которые им предоставляют люди, а людям свойственно быть предвзятыми.

Например, разработчики нейросети Beauty.AI пытались создать машину, которая выбирала бы самых миловидных девушек на конкурсах красоты. В наборе фотографий, по которым программу обучали распознавать стандарты женской привлекательности, превалировали белые модели. И в итоге ИИ решил, что темнокожие и азиатские девушки красивыми быть не могут.
Команда Beauty.AI поняла, что создала ИИ‑расиста, и свернула проект.

Ещё один пример — чат‑бот Tay.ai от Microsoft, который должен был учиться поддерживать «непринуждённую и игривую беседу» с людьми в интернете.

Нейросети хватило менее 24 часов пребывания онлайн, чтобы набраться от пользователей соцсетей плохих привычек. В результате Tay.ai, притворяясь обычной 19‑летней девушкой, стал оскорблять людей в комментариях, восхвалять нездоровые политические течения, порицать феминизм и одновременно рассказывать, что феминизм — это круто. Как говорится, с кем поведёшься...

Как бы ни был хорош ИИ, он зависит от качества предоставляемых ему данных и правильности их интерпретации. А следовательно, всегда будет пристрастен ровно настолько, насколько пристрастны обучающие его люди.



#2
Merilyn

Merilyn

    Мастер

    Топикстартер
  • Администраторы
  • 15 798
  • 8 420 сообщений
  • Пол:Женщина

Отправлено 17 февраля 2025 - 11:28

Миф 3. ИИ всегда говорит правду

 

3_1682678474_1685526496-630x315.jpg
Запрос: «Футуристический робот врёт собеседнику». Изображение: Stable Diffusion Online
 
Кому бы не хотелось иметь при себе робота‑помощника, который всегда подскажет правильное решение и выполнит всю трудную умственную работу? Просишь ИИ написать диплом или собрать список источников для статьи — и машина сходу выдаёт верные данные. Это же великолепно!

Но, к сожалению, реальные нейросети далеко не всегда выдают правильные ответы. Попробуйте, например, попросить у ChatGPT помочь вам в составлении плана для курсовой, и вы очень быстро обнаружите, что машина... придумывает ссылки на несуществующие источники и вставляет нерабочие URL‑адреса, чтобы её текст выглядел убедительнее.

Если спросить чат‑бота, зачем он пытается вас обмануть, тот невинно ответит, что, когда шло его обучение, все ссылки были актуальны и он ни в чём не виноват.

Ещё у ChatGPT лучше не запрашивать статистических данных — к примеру, на несколько вопросов о ВВП одних и тех же стран за один и тот же год он невозмутимо выдавал абсолютно разные результаты.

Не обольщайтесь: нейросети не обладают интеллектом и поэтому не осознают своих ответов. Они просто копируют для вас те данные из обработанных ранее текстов, которые кажутся им наиболее подходящими.

ИИ сам по себе подвержен ошибкам и сбоям в работе, что приводит к неправильной интерпретации ваших запросов и выдаче неверных результатов. Кроме того, злонамеренные пользователи могут «скормить» нейросети не соответствующую действительности информацию. В итоге ИИ будет запрограммирован, чтобы скрывать или искажать данные в своих ответах или вовсе нести белиберду.
 
Миф 4. ИИ станет причиной безработицы

4_1682678478_1685526795-630x315.jpg
Запрос: «ИИ стал причиной безработицы, люди голодают, а получивший высокую должность робот смеётся над ними». Изображение: Stable Diffusion Online

Успехи в развитии текстогенераторов вроде ChatGPT заставляют некоторых опасаться, что нейросети отберут рабочие места у миллионов людей и станут причиной колоссального роста безработицы.

Судите сами: ChatGPT умеет не только непринуждённо поддерживать беседу, но и писать новости, рерайтить статьи и даже программировать. С такими тенденциями и писатели, и разработчики, и редакторы с журналистами без средств к существованию окажутся.

Так думают люди, которые либо не работали с нейросетью вообще, либо только ознакомились с её возможностями и немедленно пришли в восторг. Или в ужас.

Если некоторое время использовать ИИ для генерации текстов, можно заметить, что машина не очень‑то стремится к смысловому наполнению своей писанины. Вместо этого она повторяет одни и те же тезисы разными словами.

ChatGPT выдаёт перлы, над которыми смеются реальные копирайтеры. Например, людям, интересующимся народными инструментами, нейросеть советует «брать ложки и начинать дудеть». С программированием тоже не всё гладко. ИИ может быть полезен кодерам, но его возможности ограничиваются написанием небольших алгоритмов и подпрограмм.

Код, созданный ChatGPT, частенько получается нерабочим или прерывается на середине. Попросите ИИ прокомментировать строки его творения, и он невозмутимо снабдит их текстом «здесь находится программная логика». Джуниора‑разработчика, оставляющего такие описания в проекте, вряд ли погладили бы по голове.

Исследование Организации экономического сотрудничества и развития показывает, что в лучшем (для ИИ) случае полностью автоматизировать можно только 10% рабочих мест в США и 12% в Британии.

Нейросети способны выполнять за человека скучные рутинные действия, например сортировку почты и переписывание новостей по жёстко заданному плану. Но аналитики ОЭСР пришли к выводу, что ИИ не сможет претендовать на рабочие места, требующие высокого уровня образования и сложных навыков.

В общем, вряд ли ChatGPT отберёт хлеб у человека.


#3
Merilyn

Merilyn

    Мастер

    Топикстартер
  • Администраторы
  • 15 798
  • 8 420 сообщений
  • Пол:Женщина

Отправлено 17 февраля 2025 - 11:29

Миф 5. ИИ станет разумным

 

3_1682679172_1685526884-630x315.jpg
Запрос: «Искусственный интеллект обретает самосознание». Изображение: Stable Diffusion Online

 

Физик Стивен Хокинг как‑то сказал, что искусственный интеллект может полностью заменить людей. Такие известные личности, как Илон Маск, Гордон Мур и Стив Возняк, тоже упоминали об опасности ИИ и необходимости приостановить эксперименты по его разработке.

Поди пойми, что у мыслящего компьютера будет на уме.

Многие футурологи и писатели предсказывали, что развитие полноценного искусственного интеллекта приведёт к негативным последствиям для человека.

Но ключевое слово тут — «полноценного». Сам термин ИИ по отношению к нейросетям вроде ChatGPT не вполне корректен, поскольку они не обладают интеллектом. Это всего лишь алгоритмы, сложные наборы команд и математических моделей, и они не способны воспроизводить когнитивные функции человека.

Причина проста: мы ещё сами не очень хорошо знаем, как работает наш мозг. А уж воспроизведение его в коде и вовсе невыполнимая задача.

Существуют понятия «слабый» и «сильный» ИИ. Первый — это те самые нейросети для генерации текста или сортировки электронных писем. Они не могут самостоятельно принимать решения или обучаться на основе новых данных.

А сильный ИИ — это Skynet из «Терминатора» или AM из рассказа Эллисона. Компьютер, не просто оперирующий информацией, а в той или иной степени понимающий её смысл. Такие ИИ существуют только в фантастических произведениях, и вообще, неизвестно, можно ли создать электронный аналог человеческого мозга хотя бы теоретически.
 
Миф 6. Скоро ИИ начнёт развиваться самостоятельно и настанет технологическая сингулярность

 

2_1682679170_1685527065-630x315.jpg
Запрос: «Технологическая сингулярность». Изображение: Stable Diffusion Online

 

Технологическая сингулярность — это гипотетическое состояние человеческой цивилизации, когда развитие технологий становится настолько быстрым, что человек не может его контролировать. Одним из авторов этой концепции стал британский математик Ирвинг Гуд.

Учёный предположил: если создать самообучающийся «интеллектуальный агент», он будет совершенствоваться с непостижимой скоростью. ИИ начнёт создавать новые технологии и модернизироваться, а человечество, неспособное понять его, безнадёжно отстанет в развитии.

Первая сверхразумная машина — это последнее изобретение, которое когда‑либо понадобится человеку. При условии, что она достаточно послушна, чтобы подсказать нам, как держать её под контролем.

Ирвинг Гуд

Математик

Но, как мы уже объяснили, на самосовершенствование способен только сильный ИИ, а как его создать, учёные сейчас и близко не представляют.

Слабый же искусственный интеллект обучается на той информации, которую ему «скармливают» разработчики. Для тренировки нейросети требуются специалисты, которые определяют подходящие данные для каждого нового цикла обучения, устраняют ошибки в тренировочных выборках и обновляют программное обеспечение.

Нейросети не могут развиваться дальше тех возможностей, которые заложены в них их кодом. Так что технологическая сингулярность откладывается.


#4
Merilyn

Merilyn

    Мастер

    Топикстартер
  • Администраторы
  • 15 798
  • 8 420 сообщений
  • Пол:Женщина

Отправлено 17 февраля 2025 - 11:30

Миф 7. ИИ взбунтуется против создателей

 

Lajfxaker-600_1682678663-630x315.jpg
Запрос: «Робот с ИИ возненавидел своих создателей и принимает решение уничтожить их». Изображение: Stable Diffusion Online

 

Обладающий достаточно развитым сознанием ИИ в теории может счесть людей угрозой. И просто на всякий случай избавиться от них, развязав ядерную войну или заразив население планеты смертоносным вирусом. Мало ли, вдруг эти безволосые обезьяны выдернут вилку из розетки.

Это популярный сюжет в научной фантастике. Одним из первых его использовал в 1967 году американский писатель Харлан Эллисон в своём рассказе «У меня нет рта, но я должен кричать». В нём всемогущий компьютер АМ возненавидел своих создателей, истребил человечество и оставил только пятерых людей на планете, чтобы издеваться над ними просто от нечего делать.

Слава роботам. Смерть человекам.

В реальности бунт ИИ невозможен. Программные алгоритмы не осознают себя, не обладают свободной волей и эмоциональными реакциями. Они не могут испытывать негативных чувств к своим создателям или желания поработить человечество. Нейросети не способны самостоятельно изменять свои параметры или программу, чтобы выйти из‑под контроля.

Что‑то такое в теории может сильный ИИ. Но, как упоминалось выше, с современными технологиями создать его не получится.
 
Миф 8. Роботы с искусственным интеллектом будут убивать людей

 

4_1682679175_1685527342-630x315.jpg
Запрос: «Терминатор охотится на людей». Изображение: Stable Diffusion Online

 

Когда мы говорим об опасности ИИ и восстании машин, то обычно рисуем в голове картинки из фильмов вроде «Терминатора». Ведомая искусственным разумом орда механических созданий, похожих на человека, но сильнее и быстрее его, истребляет своих изобретателей.

На практике же этот сценарий крайне маловероятен, и дело даже не в отсутствии у ИИ желания кого‑то убивать. Просто текущее состояние робототехники сильно отстаёт от того, что мы видели в «Терминаторе» и «Матрице».

Например, робопсы компании Boston Dynamics отличаются по возможностям от четвероногого убийцы из серии Metalhead «Чёрного зеркала». Бегать так быстро, чтобы преследовать удирающих людей, они не умеют. При попытке догнать вас на лестнице тот же Spot запросто может запутаться в своих ногах и упасть.

Ещё более весомое препятствие на пути к созданию механизированных убийц — отсутствие достаточно компактного, мощного и долгоиграющего источника энергии.

Робопсы Boston Dynamics способны «прожить» на одном заряде до 90 минут — этого явно недостаточно, чтобы представить из них армию для уничтожения человечества. Работающих 120 лет подряд реакторных установок, которые можно поместить в грудь машины размером с человека, как в «Терминаторе», тоже ещё не придумали.

Наконец, засунуть ИИ в автономный механизм — задача невыполнимая. Это в фантазии Джеймса Кэмерона он помещается в чип размером с ноготь. В реальности же для того, чтобы заставить искусственный интеллект соображать, требуются значительные вычислительные мощности — ChatGPT, например, работает на ферме, состоящей из 10 000 видеокарт.

Представляете, каких размеров должен быть огромный человекоподобный робот, чтобы вместить в себя такие «мозги», и какое у него должно быть охлаждение?


#5
владелец

владелец

    Мастер

  • Администраторы
  • 26 530
  • 13 357 сообщений
  • Пол:Мужчина
  • Город:Псков

Отправлено 17 февраля 2025 - 12:42

"с современными технологиями создать его не получится". "текущее состояние робототехники" "отсутствие достаточно компактного, мощного и долгоиграющего источника энергии". "работающих 120 лет подряд реакторных установок ещё не придумали."  "чтобы заставить искусственный интеллект соображать, требуются значительные вычислительные мощности"

Обратите внимание -- превалирует понятие ПОКА 





#6
Merilyn

Merilyn

    Мастер

    Топикстартер
  • Администраторы
  • 15 798
  • 8 420 сообщений
  • Пол:Женщина

Отправлено 19 февраля 2025 - 14:50

Как понять, что общаешься с искусственным интеллектом

 

neurolifehacker_a_man_communicates_with_

 

Искусственный интеллект обучили не только поддерживать связный диалог, но и имитировать человеческую речь и даже внешность людей на видео. В безобидном формате симуляции на основе алгоритмов ИИ служат развлекательным целям (вспомним функцию «Дипфейк» у VK), ускоряют продажи (как Rufus у Amazon), облегчают задачу рекрутерам (как в Альфа‑Банке) и делают много других полезных вещей.
 
Однако фейковые аккаунты на базе искусственного интеллекта в соцсетях и мессенджерах способны испортить статистику пабликов и алгоритмы рекламы — не говоря уже о спаме, который они распространяют. Кроме того, возможностями ИИ зачастую пользуются мошенники.
 
Например, в Гонконге злоумышленники устроили целую видеоконференцию с помощью deepfake. Они сымитировали внешность и голос нескольких человек и в результате выманили 25 миллионов долларов у сотрудника крупной корпорации — якобы по распоряжению финансового директора. Всё это выглядело настолько правдоподобно, что работник не смог отличить фейковые фигуры от реальных людей.
 
Однако идентифицировать ИИ во время общения всё же можно. Вот несколько советов, как это сделать.
 
Как вычислить ИИ в соцсетях
 
Специальное ПО для имитации поведения живого пользователя в социальных сетях так и называется — социальный бот. Такие боты используют не только SMM‑отделы брендов для продвижения продукции, но и злоумышленники — для распространения фейков, запрещённых идей, разжигания агрессии в комментариях и кражи персональных данных пользователей. Если сомневаетесь, что перед вами настоящий аккаунт, то воспользуйтесь следующими советами:
 
1. Обращайте внимание на частоту его активности. Несколько постов в неделю или даже в день на одну и ту же тему, постоянные репосты и отсутствие оригинального контента могут означать, что это — ИИ.
 
2. Поищите личную информацию на странице пользователя. Если она не указана, а вместо фотографии поставлена абстрактная картинка, то это ещё один повод усомниться в подлинности аккаунта.
 
3. Обращайте внимание на рекламные или провокационные публикации от разных пользователей с одинаковым содержанием — например, в сообществах. Скорее всего, это работа нескольких запрограммированных аккаунтов.
 
4. Попробуйте пообщаться в личных сообщениях. Примитивные ответы, противоречащие друг другу реплики или вовсе их отсутствие будут указывать на бота. Например, вы спрашиваете условного нового знакомого, сколько у него питомцев, а он отвечает «7» и не может привести их клички. Или хотите узнать у собеседницы, есть ли у неё братья или сёстры, а она говорит: «Не уверена».
 
Как понять, что общаешься с ИИ в переписке
 
Упомянутые выше социальные боты могут и сами обращаться к пользователям в личных сообщениях, комментариях и отзывах в публичном обсуждении. Вот как их вычислить:
 
1. Присмотритесь к стилю. Слишком формальные фразы, быстро напечатанные длинные предложения, отсутствие ошибок и смайликов в неформальном общении могут указывать, что перед вами ИИ. Поскольку роботы буквально запоминают словарь наизусть — таким способом они обучаются общению, — для них крайне нехарактерно допускать ошибки в орфографии и пунктуации, что обычно не свойственно живым собеседникам.
 
2. Попросите собеседника прокомментировать предстоящие события. Например, выход фильма, новый альбом музыкальной группы и так далее. Робот собственным мнением не обладает и не сможет дать подходящий ответ. Он оперирует информацией, которая уже заложена в его базе данных. К примеру, если спросить: «Как думаешь, как будут выглядеть люди в 20347 году?» — ИИ либо не поймёт вопроса, либо, наоборот, попытается объяснить всё чересчур серьёзно для такой ситуации.
 
3. Придумайте сложную шутку. Некоторые боты умеют справляться с примитивным юмором и даже могут его имитировать, а вот сарказм или каламбур им будет непонятен. Такое на данный момент доступно только самым продвинутым моделям. Даже фраза вроде «Ты ж мой зайка, какой ты всезнающий…», употреблённая в явно негативном контексте, может заставить бота думать, что вы делаете ему комплимент, — и он выдаст себя.
 
Впрочем, шутки «собственного приготовления» ИИ не всегда состоят из бессмыслицы. ChatGPT, например, на просьбу рассказать анекдот про кошку выдал следующее: «Почему кошки смотрят свысока на нас? Потому что они знают: в их мягких лапах лежит власть над нашими сердцами, а также над шерстью на тёмной одежде». В исполнении робота это в некотором роде даже настораживает.
 
4. Напишите фразу с явными ошибками, вставьте цифры и знаки препинания в слова. Боту это помешает воспринимать текст. К примеру, фразу «П73вет. Ты м!ня п?ни00ешЪ?» («Привет. Ты меня понимаешь?») человек распознает, ориентируясь на знакомое расположение букв, а бот проигнорирует или переспросит. Кроме того, можно заговорить на английском или другом языке: многие боты говорят только по‑русски (но не все), поэтому для перевода зачастую зовут человека.
 
Кстати, в интернете есть занятная интерактивная игра «Human or not», где можно потренироваться общаться с ИИ и отличать его от живого собеседника. Согласно правилам, нужно переписываться в чате две минуты с анонимом и угадать, был это бот или другой участник игры. Это современная версия Теста Тьюринга, изначальная цель которого — понять, может ли машина обмануть человека.
 
Как понять, что разговариваешь с ИИ
 
Генеративный ИИ успешно имитирует человеческий голос. Диапазон, тембр и эмоции в этом случае очень трудно отличить от реальных. Голосовыми приложениями — например, в онлайн‑магазинах или службах поддержки — часто пользуются крупные компании, так как им это помогает значительно экономить время персонала. Манера говорить у таких ботов вполне правдоподобна — но при этом проблему обратившегося клиента могут и не решить. Вот как отличить робота:
 
1. Отмечайте отсутствие пауз между репликами — они должны вас насторожить. Искусственный интеллект обрабатывает информацию в несколько раз быстрее человека и, соответственно, быстрее её сообщает.
 
У некоторых ботов специально предусмотрены паузы, чтобы имитировать скорость ответа человека. Но в это время они, в отличие от реальных собеседников, не будут растягивать слова или употреблять междометия («Ой», «Ого») и звукоподражания («Э‑э‑э», «М‑м‑м»).
 
2. Неожиданно меняйте предмет разговора: спросите о социальном статусе, месте учёбы или питомцах собеседника. Противоречивые ответы, как и в примере про мессенджеры выше, сразу выдадут бота.
 
3. Обращаясь в службу поддержки, опишите проблему как можно более детально. В рядовых ситуациях вроде «Не понравилось качество сервиса» или «Не могу найти ответ на сайте» — то, что можно решить или узнать без вмешательства человека — ИИ поможет разобраться быстрее и без очереди других пользователей. Но если проблему не так‑то просто объяснить, он потеряется в нити повествования и проигнорирует часть важных деталей, не переспрашивая, — и этим выдаст себя.
 
Генеративный голосовой ИИ хорошо прижился в сфере развлечений, создания видео или озвучки. Однако мошенники, к сожалению, тоже этим пользуются. Взломав аккаунт пользователя в мессенджере, они прослушивают его старые аудиосообщения и на их основе создают фейки с просьбой к друзьям и родственникам о переводе денег.
 
Подобные аудиосообщения можно проверить, связавшись с человеком, от имени которого их присылают, в другом мессенджере или по телефону. Чаще всего взломщики получают доступ только к одному каналу связи. Поскольку этот способ мошенничества относительно новый в России, следует предупредить о нём детей и старших родственников.
 
Генеративный ИИ способен подражать не только голосу, но и внешнему виду реальных людей — например, по видеосвязи.
 
Если вам поступил подозрительный видеозвонок и вас просят перевести денег или сообщить данные банковской карты, даже если голосом и внешним видом персонаж действительно напоминает вашего знакомого человека, обращайте внимание на мимику и жесты. В случае с фейком движения губ могут не совпадать с произносимой речью, мимика — не соответствовать эмоциям, могут повторяться одинаковые жесты или движения.
 
Попробуйте задать вопрос, верный ответ на который может дать только ваш знакомый. Этот способ проверки при любом сомнении — классический и наиболее верный.


#7
рыбкаZ

рыбкаZ

    Мастер

  • Администраторы
  • 7 973
  • 3 405 сообщений
  • Пол:Женщина
  • Город:Подмосковье
  • Интересы:Живопись, кулинария, кошки, фэнтези, стихотворчество

Отправлено 24 февраля 2025 - 20:16

Скажу своё мнение об ИИ в отношении искусства.

 

ИИ безусловно очень талантлив, если можно так сказать.

Его учитель - все мировые виды искусства, что есть в интернете. Он моментально их "лопатит" и перерабатывает.

 

У ИИ хорошее чувство юмора, хороший вкус, а значит есть интеллект.

 

b385a0984eacd4cf65acb78eb7f7bb14.jpg
 
5431382ea4d8d2441ab141d0ebd8ae8f.jpg
 
bd6ac95828f5f62b0b58fed2d96a9f89.jpg
 
9e82ced3931c3d166c5f6c4453625d9a.jpg
 
_50b8769e3b775c62fa0c240feee6f11e.jpeg

 

И самое главное - он ОЧЕНЬ БЫСТРО УЧИТСЯ. И все недочеты в виде лишних пальцев - это дело времени. 

 

Так что вполне возможно, что когда-нибудь миром будет править ИИ. 





#8
владелец

владелец

    Мастер

  • Администраторы
  • 26 530
  • 13 357 сообщений
  • Пол:Мужчина
  • Город:Псков

Отправлено 24 февраля 2025 - 21:20

Только сегодня заметил, что под Генератором изображений https://myneuralnetworks.ru/generating_images_from_text/

есть ниже еще несколько 

 

 

 

???? СЕРВИСЫ ????








Темы с аналогичным тегами искусственный ителллект, нейросеть, творчество, робот, чат-бот, ChatGPT

Количество пользователей, читающих эту тему: 0

0 пользователей, 0 гостей, 0 анонимных