ai 전담부서1 인공지능 윤리 기준 정의- 인간성을 위한 인공지능 구현을 목표로 인공지능의 모든 개발과 활용 과정에서 지켜야 할 3대 기본원칙과 10대 핵심요건을 주된 내용으로 하는 과학기술정보통신부가 제안한 인공지능 윤리기준. 키워드- 인공지능 안전, AI 원칙, AI 전문가, AI 전담부서, 데이터 3법, EU-GDPR, XAI, AI Kill Switch, Safety AI 기술요소인간 존엄성 원칙 - 인간은 인간을 위해 개발된 기계제품과는 교환 불가능한 가치가 있음 - 인간의 생명, 정신적 및 신체적 건강에 해가 되지 않는 범위에서 개발 및 활용 - 인공지능 개발/활용은 안전성과 견고성을 갖추어 인간에게 해가 되지 않도록 함. 사회의 공공선 원칙 - 공동체로서 사회는 가능한 한 많은 사람의 안녕과 행복이라는 가치를 추구 - 인공지.. 2024. 9. 21. 이전 1 다음