Сделать стартовой Добавить в избранное
 
Спонсор раздела:
 
Панель управления
логин :  
пароль :  
   
   
Регистрация
Напомнить пароль?
Главная страница » Компьютеры » Софт » Как не позволить искусственному интеллекту стать угрозой интересам людей: компания ЭОС присоединилась к Кодексу этики в сфере ИИ
Навигация по сайту
\2

Запретная зона
 
Расширенный поиск
Популярные статьи
» Судом удовлетворен иск прокуратуры об обеспечении досту ...
» После вмешательства прокуратуры подвал жилого дома осво ...
» Прокуратура защитила права предпринимателей
» Юго-Западной транспортной прокуратурой восстановлены пр ...
» Прокуратурой восстановлены права участника внешнеэконом ...
» Акция на мобильное приложение «ЭОС Совещания»
» Утверждено обвинительное заключение в отношении пассажи ...
» В Московской области вынесен приговор за приобретение и ...
» Организация привлечена к административной ответственнос ...
» По требованию транспортного прокурора установлены дорож ...
Наш опрос
Вы используете лицензионный софт?

Только лицензия.
Не все программы.
Нет возможности.
Нет категорически.
Календарь
«    Ноябрь 2024    »
ПнВтСрЧтПтСбВс
 123
45678910
11121314151617
18192021222324
252627282930 
Архив новостей
Рекламные объявления
| |
Регистрация доменов. Хостинг.
Компьютеры » Софт : Как не позволить искусственному интеллекту стать угрозой интересам людей: компания ЭОС присоединилась к Кодексу этики в сфере ИИ
 
Что будет, если темпы развития нейросетей останутся такими же, как сейчас, или еще ускорятся? Многие считают, что это породит угрозы человечеству и может привести к непредсказуемым последствиям. Страхи и представления о возможных угрозах возрастают по мере расширения сферы применения нейросетей и возможностей ИИ. Об этих проблемах и многом другом говорили участники форума этики в сфере искусственного интеллекта «Поколение GPT. Красные линИИ», который прошел на площадке ТАСС 16 ноября 2023 года. Компанию ЭОС представлял Иван Скородумов, заместитель генерального директора ООО «ЭОС ПВ».
Вызовы, связанные с быстрым развитием технологий ИИ, стали главной темой для обсуждения на Форуме. Эксперты сошлись в том, что необходимы прогнозирование и опережающее осмысление возможных результатов стремительного развития нейросетей, а также меры, с одной стороны, стимулирующие применение ИИ, с другой - ограждающие человека от возможного негативного влияния. Но как обеспечить развитие и внедрение ИИ в разумных рамках? Не пора ли задуматься о своего рода «трех законах робототехники»? Один из способов обеспечить контроль над процессом – следование специальному Кодексу этики в сфере искусственного интеллекта.
Кодекс этики в сфере ИИ предназначен для предотвращения использования вредоносных практик в системах искусственного интеллекта. Он был разработан в 2021 году в рамках Национальной стратегии развития ИИ в России. 26 октября 2021 года Кодекс подписали Правительство РФ, несколько крупных компаний и научно-исследовательских организаций. Кодекс, в частности, провозглашает человеко-ориентированный подход при развитии технологий ИИ, принципы безопасности работы с данными и информационной безопасности, идентификации ИИ в общении с человеком и уважения автономии воли человека, ответственности за последствия применения ИИ и другие.
Следование Кодексу является добровольным. В ходе Форума «Поколение GPT. Красные линИИ» прошла церемония присоединения новых подписантов к Кодексу этики в сфере ИИ. Одной из подписавших организаций стала компания ЭОС. Стоит отметить, что подписание заявления о присоединение к Кодексу происходило в электронном виде, с помощью приложения Госключ.
Форум проходил при поддержке администрации Президента РФ, Минэкономразвития России, а также комиссии по этике в сфере искусственного интеллекта. В ходе форума был сформирован перечень инициатив по вопросам развития этики ИИ для включения в обновленную Национальную стратегию развития искусственного интеллекта до 2030 года и в Кодекс этики в сфере искусственного интеллекта.
 
 
 
 
  {related-news}  
 
 (голосов: 0)
Комментарии (0)  Распечатать
 
 
Информация
 
Посетители, находящиеся в группе Гости, не могут оставлять комментарии в данной новости.