Риск появления "роботов-убийц" как никогда высок и людям необходимо со всей серьезностью отнестись к этой угрозе, считают ведущие эксперты по робототехнике и компьютерным системам.
Более ста экспертов, среди которых инженер и предприниматель Илон Маск, в письме ООН предупреждают о возможной "третьей революции в вооружениях" и призывают предпринять шаги с тем, чтобы не допустить разработку "роботов-убийц".
Специалисты убеждены, что смертоносная технология автономного оружия, которым будут управлять интеллектуальные машины (ИИ/AI) - это "ящик Пандоры, который, раз открыв, невозможно будет закрыть" и что времени, чтобы это предотвратить, остается очень немного.
"Если оно будет разработано, то это позволит вести гораздо более масштабные, чем когда-либо, вооруженные конфликты в такие сроки, которые людям невозможно представить", - говорится в обращении, подписанном 116 экспертами.
"Это может стать оружием террора; оружием, которое деспоты и террористы смогут использовать против ни в чем неповинного населения; оружием, взломанным с ужасающими намерениями", - написано в обращении.
Эксперты призывают ООН отнести эти, с моральной точки зрения вредные, технологии к разряду вооружений, запрещенных Конвенцией ООН о конкретных видах обычного оружия.
Вместе с создателем Tesla и SpaceX Илоном Маском письмо подписали и Мустафа Сулейман, один из создателей принадлежащей Google компании DeepMind, а также Игорь Кузнецов, основатель и глава российской компании NaviRobot, и Алексей Южаков и Олег Кивокурцев - основатели российской компании Promobot.
В понедельник должно было состояться заседание специальной группы правительственных экспертов при ООН по проблемам автономного оружия, однако оно было перенесено на ноябрь, как следует из сообщения на вебсайте.
В письме экспертов по этому поводу отмечается следующее: "Мы очень сожалеем, что первая встреча группы правительственных экспертов, которая должна была состояться сегодня, отменена из-за того, что некоторое число членов не внесли свой финансовый взнос в ООН. Поэтому мы призываем Высокие Договаривающиеся Стороны удвоить усилия на своей первой встрече, которая теперь запланирована на ноябрь месяц".
Потенциальный запрет на разработку технологии "роботов-убийц" ранее уже обсуждался в различных комитетах ООН.
В 2015 году, к примеру, более тысячи ученых, экспертов и изобретателей написали письмо, в котором также содержалось предупреждение об опасности, котрую несет в себе автономное оружие. Свои подписи тогда поставили английский физик Стивен Хокинг, один из основателей компании Apple Стив Возняк и Илон Маск.
Робот-убийца - это совершенно автономный вид оружия, который может выбирать и преследовать цели без руководства со стороны человека. Пока таковых не существует, однако развитие технологий приближает момент, когда это может стать реальностью.
Те, кто выступают за создание подобных машин, утверждают, что нынешних международных законов достаточно для того, чтобы справиться с любой проблемой, которая потенциально может возникнуть при использовании этого типа вооружений.
Они полагают, что мораторий или запрет надо вводить тогда, когда станет совершенно очевидно, что ситуация вышла из-под контроля.
Однако оппоненты говорят, что подобное оружие является угрозой человечеству, и любая автономно существующая система, способная убивать, должна быть запрещена.
bbc.com
16:55
16:41
16:17
16:17
16:06
15:55
15:41
15:28
15:14
14:55
14:41
14:26
14:13
13:59
13:45
13:31
13:16
13:03
12:49
12:35
12:21
12:08
11:55
11:41
11:29
11:17
11:04
10:51
10:39
10:26
10:13
10:01
09:49
09:36
09:23
09:09
17:41
17:29
17:18
17:07
16:55
16:41
16:29
16:17
16:06
15:55
15:41
15:28
15:14
14:55
Вс | Пн | Вт | Ср | Чт | Пт | Сб | |
1 | 2 | 3 | |||||
4 | 5 | 6 | 7 | 8 | 9 | 10 | |
11 | 12 | 13 | 14 | 15 | 16 | 17 | |
18 | 19 | 20 | 21 | 22 | 23 | 24 | |
25 | 26 | 27 | 28 | 29 | 30 |
15:39
09:49
13:25
14:04
12:51
15:28
12:39
13:24
13:02
12:39
15:08
11:15
14:33
12:26
11:23
13:25
15:19
14:27
15:16
12:13
15:14
14:44
13:25
11:06
13:12
11:13
14:15
11:26
09:35
11:41
10:37
10:55
12:28
12:13
12:51
11:35
10:45
16:51
10:21
14:27
12:37
11:23
13:03
10:47
13:03
13:15
14:58
14:55
14:31
14:19