인공 지능 기술 개발은 기본 윤리 원칙을 따라야합니다.
인공 지능 기술의 발전은 반드시 따라야 할 기본 윤리 원칙이다.
첫째, 인간의 안전을 지키고 공익을 추구한다.
인터넷 윤리는 사람과 인터넷, 사람과 사람의 관계, 그리고 사람들이 지켜야 할 도덕 기준과 규범을 포함한다. 인터넷 윤리 원칙의 확립은 입법 규범의 전제이자 지도이다. 최근 몇 년 동안 인공지능 기술은 인류에게 편리함을 제공했지만, 일련의 문제를 야기했다. 그러나 국제적으로 인공지능 기술에 대한 전문 법률 규범이 일시적으로 부족하기 때문에 입법의 부재는 인공지능 기술의 발전을 제한하고 인류의 안전과 공익을 위태롭게 한다. 인공지능 기술의 발전은 인류에 기여하고 인류의 안전이익을 보호하는 기초 위에 세워져야 한다.
둘째, 실패는 투명하고 추적 가능합니다.
신기술로서 인공지능 시스템의 안정성과 보안은 기술 응용 분야의 보안과 직결된다. 인공지능 시스템이 고장이 나거나 손상되면 손상의 원인을 찾아낼 수 있으며, 인공지능 시스템의 안전과 고장성은 인간 규제 기관이 검토해야 한다. 즉, 인간이 사법결정에 참여하는 데는 과오 투명성과 사법투명성이 필요하다는 것이다. 이것은 인공지능 기술에 대한 대중의 신뢰를 높이는 데 도움이 될 것이다. 사고가 발생하면 오류 투명성 원칙이 사고 조사원들이 사고 원인을 규명하는 데 도움이 된다.
셋째, 개인의 사생활을 존중한다.
인공지능 기술은 인간의 프라이버시, 자유, 안전을 보장해야 하며, 기술 발전을 희생해서는 안 된다. 인공지능 기술의 데이터 분석 및 사용 기능을 고려할 때 인간은 데이터 소스와 어플리케이션에 액세스, 관리 및 제어할 수 있는 권한이 있어야 합니다. 미래의 슈퍼 인공지능 시스템의 설계자이자 건설가이자 인공지능 기술 이용의 이해 관계자인 만큼 그에 상응하는 안전책임을 져야 한다.