HIGHLIGHTS
- who: Legal Science et al. from the (UNIVERSITY) have published the paper: 340.134, in the Journal: (JOURNAL)
SUMMARY
Разработка и принятие в 2019 году Национальной стратегии развития искусственного интеллекта ознаменовали собой официальное признание значимости и всеобъемлющего характера новых технологий. В данном Legal Science and Practice: Journal of Nizhny Novgorod Academy of the Ministry of Internal Affairs of Russia, 2022, no. 2 Трибуна молодого ученого A young scientist`s forum документе прямо обозначена цель по обеспечению ускоренного развития искусственного интеллекта в Российской Федерации, а также проведению научных исследований в указанной области. Сегодня технологии искусственного интеллекта представляются в основном в позитивном свете. Помимо этого, по его мнению, нужно принимать во внимание то, что в ходе разработки искусственно интеллектуальных систем человеком могут быть допущены ошибки технического характера, вследствие чего данные системы приобретают изначально непредусмотренные разрушительные свойства. Мы полагаем, что внедрение технологий искусственного интеллекта имеет, безусловно, как позитивные, так и негативные аспекты. Во-вторых, самостоятельно принимаемые системами искусственного интеллекта решения могут нарушать конституционные права и свободы граждан, в частности, право на равенство, а также право на неприкосновенность частной жизни. Таким образом, мы не можем гарантировать объективность решений, исходящих от систем искусственного интеллекта. Создание комплексной системы правового регулирования отношений, возникающих в связи с внедрением и применением систем искусственного интеллекта, - стратегическая задача. Правовой регламентации требует следующее: правовой статус искусственного интеллекта, этические и технологические требования к его разработке и использованию, юридическая ответственность за вред, им причиненный, защита прав и свобод граждан в условиях, а также отдельные особенности его применения в конкретных сферах деятельности (юриспруденция, медицина, военное дело, образование и др.). Полагаем, что рассматриваемую нами презумпцию можно сформулировать следующим образом:Опасность использования технологий искусственного интеллекта предполагается, пока не доказано обратное». По нашему мнению, данная презумпция означает, что технологии искусственного интеллекта рассматриваются как потенциально опасные, пока лица, заинтересованные в их развитии и использовании, не докажут их безопасность. @@
ACRONYMS
LAY DEFINITIONS
- Artificial intelligence: Theory and development of COMPUTER SYSTEMS which perform tasks that normally require human intelligence. Such tasks may include speech recognition, LEARNING; VISUAL PERCEPTION; MATHEMATICAL COMPUTING; reasoning, PROBLEM SOLVING, DECISION-MAKING, and translation of language
If you want to have access to all the content you need to log in!
Thanks :)
If you don't have an account, you can create one here.