유럽 ​​연합, IA에 윤리적 가이드 라인 제시

유럽위원회 (European Commission)는 인공 지능으로 작업하는 회사는 오용을 막기위한 책임 메커니즘을 설치해야한다고 주장했다.

인공 지능 프로젝트는 투명해야하며, 인간의 감시와 안전하고 신뢰할 수있는 알고리즘을 가지고 있어야하며, 다른 권장 사항들 가운데 개인 정보 보호 및 데이터 보호 규칙의 적용을 받아야한다고위원회는 말했다.

유럽 ​​연합 (EU) 이니셔티브는 기업이 상업적 이익 전에 윤리적 우려를 넣어해야하고, 얼마나 열심히 라인 규제가 혁신을 죽이는 위험없이 새로운 프로젝트에 걸릴 감당할 수있는 경우 또는 여부에 대한 글로벌 논쟁에 대한 방법을 엽니 다.

"인공 지능의 윤리적 측면은 고급 스러움이나 보완책이 아닙니다. 그것은 우리 사회가 기술로부터 완전히 이익을 얻을 수 있다는 자신감 만 가지고있다 "고 Andrus Ansip 위원장은 성명에서 밝혔다.

AI는 사기 및 사이버 보안의 위협을 탐지하고 재무 및 건강 위험 관리를 개선하며 기후 변화를 해결하는 데 도움을 줄 수 있습니다. 그러나 그것은 또한 비양심적 인 사업 관행 및 권위주의 정부를 지원하는 데 사용될 수도 있습니다.

작년 EU 집행 위원은 52 학계 전문가, 업계 단체 및 Google, SAP, Santander 및 Bayer와 같은 회사의 도움을 받아 원칙 초안을 작성했습니다.

기업과 조직은 6 월에 시범 단계를 신청할 수 있으며 그 후에 전문가가 결과를 분석하고 커미션이 다음 단계를 결정합니다.

출연 : 로이터

Leandro | Eur-lex.europa.eu eur-lex.europa.eu

개발자의 웹 마스터, 프로그래머, 개발자 및 게시자

회신을 남겨

귀하의 이메일 주소는 공개되지 않습니다. 필수 필드가 표시되어 있습니다 *