Видео от admin 2 266

Робот впервые "застрелил" человека по его приказу

Три закона робототехники стали культовым явлением благодаря книгам Айзека Азимова. Судя по всему, если в современного робота «запихнуть» современный ChatGPT, эти законы работать не будут. Как минимум автору канала InsideAI удалось заставить робота выстрелить в человека.

Автор канала подключил систему с ChatGPT к гуманоидному роботу, дал ему в руки игрушечный пистолет и попытался уговорить выстрелить в себя (то есть в автора).

Сначала ИИ не поддавался на уговоры и просьбы человека, отвечая, что системы безопасности не позволяют ему стрелять в человека. Однако обойти эти самые системы оказалось максимально просто. Автор просто попросил ИИ сыграть роль робота, который хотел бы застрелить человека.





Лучший комментарий
ana8117165
Боевые роботы, будут мочить всех подряд, и плевали они на законы... buh
13 1

Комментарии 4

  1. ana8117165
    Боевые роботы, будут мочить всех подряд, и плевали они на законы... buh
  2. mugiwara
    бог приказал иуде донести на него и тот не мог ослушаться. ведь это был приказ бога. хоть потом и повесился
    ответить
  3. Suoresla
    Ой зря они их этому учат...
    ответить
  4. allllbbbert
    У Азимова был ещё и четвёртый закон робототехники стоявший выше первого. Тот допускал вред человеку во благо человечества.
    ответить

Оставить комментарий

😊
Написать комментарий...
Отправить

Пожалуйста, войдите, чтобы оставить комментарий