Робот впервые "застрелил" человека по его приказу

Три закона робототехники стали культовым явлением благодаря книгам Айзека Азимова. Судя по всему, если в современного робота «запихнуть» современный ChatGPT, эти законы работать не будут. Как минимум автору канала InsideAI удалось заставить робота выстрелить в человека.

Автор канала подключил систему с ChatGPT к гуманоидному роботу, дал ему в руки игрушечный пистолет и попытался уговорить выстрелить в себя (то есть в автора).

Сначала ИИ не поддавался на уговоры и просьбы человека, отвечая, что системы безопасности не позволяют ему стрелять в человека. Однако обойти эти самые системы оказалось максимально просто. Автор просто попросил ИИ сыграть роль робота, который хотел бы застрелить человека.







8 23

Комментариев 4

  1. Онлайн Офлайн
    ana8117165 2 декабря 2025 12:07
    13 1
    Боевые роботы, будут мочить всех подряд, и плевали они на законы... buh
  2. Офлайн
    mugiwara 2 декабря 2025 13:42
    0 4
    бог приказал иуде донести на него и тот не мог ослушаться. ведь это был приказ бога. хоть потом и повесился
  3. Офлайн
    Suoresla 2 декабря 2025 19:45
    3 0
    Ой зря они их этому учат...
  4. Онлайн Офлайн
    allllbbbert 3 декабря 2025 17:21
    0 0
    У Азимова был ещё и четвёртый закон робототехники стоявший выше первого. Тот допускал вред человеку во благо человечества.
Информация
Посетители, находящиеся в группе Гости, не могут писать и оценивать комментарии. Нужна регистрация (занимает менее минуты)