안녕하세요. 모나(Mona)입니다. 앞서 멤버들이 1,2강을 잘 소개해 줬는데요. 저도 이어서 진행한 3번째 강의를 소개해 보겠습니다. 이전 강의들보다는 AI 사용에 있어서의 도덕적, 윤리적인 관점에 대한 이야기라서 어렵지않게 쉽게 이해할 수 있는 내용이었답니다. 디지엠유닛원에서도 구글 클라우드가 제공하는 ‘Generative AI learning path’ 강의 트랙을 따라 생성형 AI 스터디를 진행하고 있습니다. 해당 강의는 여기에서 3번째 강좌로 보실 수 있습니다.
1. 책임감 있는 AI (Responsible AI)란?
교통 및 날씨 예측에서부터 다음에 보고 싶은 TV 프로그램 추천에 이르기까지 인공지능(AI)과 매일 상호작용하고 있듯이 우리 생활에 AI는 굉장히 보편화되어 있습니다. 이에 따라 AI를 지원하지 않는 기술이 오히려 일반적이지 않게 느껴지고 불편해하는 상황에 이르렀습니다. 이제 AI시스템은 상상할 수 없었던 방식으로 컴퓨터가 세상을 보고, 이해하고, 상호작용할 수 있도록 도와주고 있습니다. 이러한 시스템은 엄청난 속도로 발전하고 있는데요. 그러나 이러한 놀라운 발전에도 불구하고 AI는 오류가 없는 것은 아닙니다. AI에도 오류는 존재합니다. 위험하지 않아 보이거나 선의의 의도를 가진 경우에도 윤리적 문제나 의도하지 않은 결과가 발생할 수 있으며, 기대했던 만큼의 유익함을 제공하지 못할 수 있습니다. 그래서 우리는 책임감 있는 AI를 알고 지키기위해 노력해야합니다.
- 책임감 있는 AI(Responsible AI)란: 윤리적 및 법적 관점에서 인공 지능(AI)을 개발하고 배포하는 접근 방식입니다.
- AI 시스템은 놀라운 속도로 발전하고 있지만 인공지능은 완벽하지 않다.
- 책임 있는 AI를 개발하려면 가능한 문제, 한계 또는 의도하지 않은 결과에 대한 이해가 필요하다.
- 그러나 책임 있는 AI에 대한 보편적인 정의는 없지만 투명성, 공정성, 책임, 프라이버시에 걸친 공통적인 담론이 있다.
2. 책임감 있는 AI를 적용하는 방식 및 필요성
AI 설계 및 개발하고 사용 방법을 결정하는 것은 사람입니다. 데이터를 수집하는 과정에서 데이터를 선별하는 작업도 사람이 진행하고 또 최종적인 성능 평가도 사람이 진행합니다. 한 사람이 결정을 내릴 때마다, 사실 자신의 가치관에 따라 선택을 합니다. 데이터 선별, 학습, 성능평가에 사람이 적극적으로 개입하다 보니 AI 시스템에는 사람의 편향성이 존재하고 결과에 대한 신뢰와 책임 문제, 윤리 문제가 남게된다. 사람들의 일상 생활은 말할 것도 없고 사회의 많은 영역에 영향을 미칠 가능성이 있습니다. 그렇기때문에 윤리를 염두에 두고 이러한 기술을 개발하는 것이 중요합니다.
- AI에는 기계가 중심적인 의사결정 역할을 한다는 잘못된 인식이 공통적으로 존재한다.
- 실제로는 모델 훈련을 위한 데이터를 수집하거나 만들며, AI의 배치와 그것이 주어진 맥락에서 어떻게 적용되는지를 통제하는 것은 사람이다.
- 배포 및 유지보수에 이르기까지 모든 의사결정 지점에서 선택이 책임감 있게 이루어졌는지 확인하기 위한 고려와 평가가 필요하다
3. 책임감 있는 AI관련 실제 사례
AI로 인해 윤리적으로 문제가 된 사례와 반대사례도 궁금증이 생겨 찾아보았습니다.
AI 윤리적 문제 사례
- MS ‘테이’챗봇 사례
- MS는 테이에 익명화된 공공 데이터와 코미디언들이 미리 작성한 자료를 심어놓고, 소셜 네트워크 상에서 상호 작용을 통해 배우고 진화하도록 만들었다. 16시간 동안 무려 9만5000개가 넘는 트윗을 올렸는데 그 트윗들은 점차 노골적 인종차별주의, 여성혐오주의, 반유대주의로 급변하기 시작했다. MS는 조정을 위해 신속하게 서비스를 멈췄고, 결국 사용을 중단하기에 이르렀다.
- 커플메신저 ‘비트윈’, 개인정보 침해 논란
- 커플 메신저 앱 ‘비트윈’이 이용자의 채팅 내용을 인공지능 개발에 활용한다고 밝혔는데요. 개인정보가 침해될 수 있다는 우려가 있었습니다. 개인을 식별할 수 있는 정보가 제대로 걸러지지 않는다면 개인정보 침해소지가 발생할 수 있다고 설명합니다. 연인과 나눈 가장 사적인 대화가 충분한 설명 없이 AI 개발에 사용된다는 사실에 사용자들의 불안이 커지고 있습니다.
책임감있는 AI 개발 사례(구글)
- 안면 인식을 위한 범용 API를 출시하지 않을 것이라고 발표
- 청각 또는 언어 장애가 있는 사람들을 도울 수 있는 독순술용 AI 모델을 개발 후 해당 기술이 대중을 감시하는데 사용할 수 없도록 연구 논문을 발표하기 전 엄격한 검토진행
- 바드를 공개하며 대화 횟수 상한제와 방침을 세움. 바드와의 상호작용이 유용하면서도 주제를 벗어나지 않도록 하기 위함.
4. Google이 제시한 AI의 7가지 원칙
1.사회적으로 유익해야 한다
- 모든 프로젝트는 광범위한 사회적 및 경제적 요인을 고려해야 하며, 우리는 전체적으로 가능한 이익이 예측 가능한 위험 및 단점을 상당히 초과한다고 믿는 경우에만 진행할 것이다.
- I는 또한 대규모 콘텐츠의 의미를 이해하는 능력을 향상시킵니다. Google은 Google이 사업을 운영하는 국가의 문화적, 사회적 및 법적 규범을 계속 존중하면서 AI를 사용하여 고품질의 정확한 정보를 쉽게 사용할 수 있도록 노력할 것입니다.
- 또한 Google의 기술을 비상업적 기반으로 사용할 수 있는 시기를 계속해서 신중하게 평가할 것입니다.
2.불공정한 편견을 만들거나 강화하는 것을 피해야 한다
- 우리는 특히 인종, 민족, 성별, 국적, 수입, 성적 지향, 능력 및 정치적 또는 종교적 신념과 같은 민감한 특성과 관련된 사람들에게 부당한 영향을 미치는 것을 피하려고 한다.
3.안전을 위해 제작되고 테스트되어야 합니다.
- 해를 끼칠 위험이 있는 의도하지 않은 결과를 피하기 위해 강력한 안전 및 보안 관행을 계속해서 개발하고 적용할 것입니다
4.사람들에게 책임을 져야 한다
- 적절한 피드백, 관련 설명, 호소의 기회를 제공하는 AI 시스템을 설계할 것이다.
5개인 정보 보호 적용 설계 원칙을 포함해야 합니다.
- AI는 프라이버시 설계 원칙을 통합해야 한다.
- 통지와 동의의 기회를 주고, 프라이버시 보호장치를 갖춘 아키텍처를 장려하며, 데이터 사용에 대한 적절한 투명성과 통제를 제공할 것이다.
6.높은 수준의 과학적 우수성을 유지해야 한다
- 우리는 과학적으로 엄격하고 다학제적인 접근법에 대해 이 분야에서 사려 깊은 리더십을 촉진하기 위해 다양한 이해관계자들과 함께 일할 것이다.
- 우리는 더 많은 사람들이 유용한 AI 응용 프로그램을 개발할 수 있도록 교육 자료, 모범 사례 및 연구를 출판함으로써 책임감 있게 AI 지식을 공유할 것이다.
7.이러한 원칙들에 부합하는 사용들을 위해 이용될 수 있어야 한다
- 많은 기술들은 다양한 사용들을 가지고 있다.
- 우리는 잠재적으로 유해하거나 남용적인 적용들을 제한하기 위해 노력할 것이다.
- 추가 참고: 구글 AI 원칙
Google에서 추구하지 않으려는 특정 AI 응용 분야
AI 7대 원칙 외에도 Google에서 추구하지 않으려는 특정 AI 응용 분야가 있습니다.
- 전반적으로 피해를 초래하거나 초래할 가능성이 있는 기술
- 인명 피해를 초래하거나 이를 직접적으로 지원하는 것을 기본 목적으로 하거나 구현하게 되는 무기나 기타 기술
- 정보를 수집하거나 감시용으로 사용함으로써 국제적으로 인정된 규범을 위반하는 기술
- 국제법과 인권과 관련하여 널리 수용되는 원칙에 위배되는 용도의 기술
이렇게 원칙을 수립하는 것은 끝이 아닌 시작점이라고 설명하고 있습니다. 그룹에서 공유된 약속을 기반으로 원칙을 수립하지만 모든 사람이 제품을 책임감 있게 설계하는 방법에 동의하지 않을 수도 있습니다. 또한 이러한 윤리를 염두에 두고 원칙대로 개발하였지만 의도치않게 나쁜 결과를 가져올 수도 있습니다. 그래서 우리는 항상 유심히 지켜보며 AI를 개발하고 사용해야한다고 느꼈습니다. 디지엠유닛원에서도 AI를 사용하기 전에 어떤 기준으로 AI개발하고 사용할지 원칙을 세우고 지키며 개발하는 것이 우리의 숙제라고 생각했습니다.
참고자료 및 출처 Generative AI learning path ※ 사용된 도표 이미지는 모두 구글 클라우드의 Introduction to Generative AI 강의 영상에서 가져왔습니다.