(AI타임스=윤광제 기자) 의학에서의 인공지능은 치료법 발전에 대한 큰 희망을 불러일으킨다.


AI는 일반적으로 인간의 지능을 흉내 내고 학습하는 컴퓨터의 능력을 말한다. 예를 들어, 기계 학습을 통해, 과학자들은 암 치료에 도움을 줄 수 있는 알고리즘을 개발하려고 노력하고 있다. 그들은 컴퓨터가 방사선 이미지를 분석하고 어떤 암 종양이 화학 요법에 잘 반응하고 어떤 종양이 그렇지 않은지를 식별할 수 있기를 희망한다.

그러나 의학에서의 AI는 또한 중대한 법적, 윤리적 문제를 제기한다. 이들 중 몇 가지는 사생활, 차별, 심리적 문제, 그리고 의사와 환자 관계에 대한 우려들이다. 정책 입안자들이 유전자 검사가 일상화 되었을 때 그랬던 것처럼 AI를 위한 많은 안전장치를 설치해야 한다고 주장한다.

◆ 차별에 대한 잠재성
AI는 패턴을 식별하기 위해 매우 많은 양의 데이터를 분석하는 것을 포함하며, 이는 미래 발생 가능성을 예측하는 데 사용된다. 의학에서, 데이터 자료는 전자 건강 기록과 건강 보험 청구 기록에서 나올 수 있지만, 몇몇 놀라운 출처에서 나올 수도 있다. AI는 개인의 건강에 대한 정보를 얻기 위해 구매 기록, 소득 자료, 범죄 기록, 심지어 소셜 미디어까지 끌어들일 수 있다.

연구자들은 이미 AI를 이용해 수많은 의학적 상태를 예측하고 있다. 이것들은 심장병, 뇌졸중, 당뇨병, 인지력 저하, 잠재적 오피오이드(아편) 남용 그리고 심지어 자살까지 포함한다. 한 예로 페이스북은 ‘괜찮니?’, ‘잘가’, ‘제발 이러지 마’ 등의 글의 포스트를 기반으로 자살을 예측하는 알고리즘을 사용하고 있다.

이런 AI의 예측 능력은 의료에 중대한 윤리적 우려를 낳고 있다. 만약 AI가 당신의 건강에 대한 예측을 만들어 낸다면 그 예측이 언젠가 당신의 전자 건강 기록에 포함될 수도 있다. 당신의 건강 기록에 접근할 수 있는 사람이라면 누구나 인지 감퇴나 오피오이드 남용에 대한 예측을 볼 수 있을 것이다. 환자의 의료 기록은 치료 과정에서 수십 명 또는 심지어 수백 명의 임상의와 관리자가 본다. 또한, 환자 스스로 다른 사람이 자신의 기록에 접근할 수 있도록 허가하는 경우가 많다.

예를 들어, 고용보험이나 생명보험에 가입할 때 말이다. 렉시스넥시스(LexisNexis), acxiom 등 데이터 브로커 업계 대기업들도 개인정보를 캐고 AI 활동을 벌이고 있다. 그들은 마케팅 담당자들, 고용주, 대부업체, 생명보험사 및 기타 관심 있는 제3자에게 의료 예측을 판매할 수 있다. 이러한 업체들은 의료 사업자나 보험사가 아니기 때문에, HIPAA 프라이버시 규정은 그들에게 적용되지 않는다. 따라서 환자들에게 정보를 얻기 위해 허가를 요청할 필요가 없으며 자유롭게 공개할 수 있다.

그러한 정보 노출은 차별을 초래할 수 있다. 예를 들어, 고용주들은 연차 사용을 적게 하고 의료비가 적게 드는 건강하고 생산적일 노동자들에게 관심이 있다. 앞으로 특정 지원자가 질병에 걸릴 것으로 믿는다면 이를 거부할 가능성이 높다. 대부업체, 임대주, 생명보험사 등은 AI 예측에 근거해 개인에 대해 불리한 결정을 내릴 수도 있다.

정보 보호 결여
미국 장애인법은 미래의 의료 문제에 근거한 차별을 금지하지 않는다. 그것은 오직 현재와 과거의 병에만 적용된다. 유전자 검사에 대응신안, 의회는 유전자 정보 차별 금지법을 제정했다. 이 법은 고용주와 의료 보험사가 유전 정보를 근거로 사람들의 미래 건강 상태에 대해 결정을 내리는 것을 금지하고 있다. 어떠한 법도 비유전적 예측 데이터를 기반으로 유사한 금지를 부과하지 않는다.

AI 건강 예측은 심리적으로도 해로울 수 있다. 예를 들어 많은 사람들이 나중에 인지력 감퇴를 겪을 것이라는 것을 알게 되면 정신적 충격을 받을 수 있다. 개인들이 자신의 데이터를 구입한 상업적 기업으로부터 직접 건강 예측을 얻을 수도 있다. 기억력을 향상시키는 제품을 구입하라는 전자 광고를 통해 치매에 걸릴 위험이 있다는 소식을 듣는 것을 상상해 보라.

유전자 검사에 관한 한, 환자들은 유전자 상담을 통해 검사 여부를 심사숙고하고 검사 결과를 더 잘 이해할 수 있도록 해야 한다. 이와는 대조적으로 우리는 환자에게 유사한 서비스를 제공하는 AI 상담가가 없다는 것이다.

또 다른 우려는 의사-환자 관계와 관련이 있다. AI로 의사 역할이 줄어들까? 컴퓨터가 예측, 진단 및 치료를 제안하면 의사들은 단순히 컴퓨터의 지시만 따르면 되는 것인가? 만약 컴퓨터가 의학적인 결정을 내릴 때 더 중요한 역할을 한다면 환자들은 그들의 의사들에 대해 어떻게 생각할까?

이런 우려는 AI 예측이 절대 완벽할 수 없다는 점 때문에 더욱 심화되고 있다. 많은 요인들로 인해 오류를 일으킬 수 있다. 알고리즘 개발에 사용되는 데이터에 결함이 있는 경우(예를 들어 오류가 있는 의료 기록을 사용하는 경우) 알고리즘의 출력이 부정확할 수 있다. 따라서 환자들은 실제로 질병의 위험이 없는 경우 잘못된 판단으로 인한 심리적인 피해를 입을 수 있다.

◆ 주의해야 할 점
일반인들을 보호하기 위해 무엇을 할 수 있을까? 프라이버시 보호는 의료 사업자와 보험사뿐만 아니라 상업적 기업에게도 적용돼야 한다. 의회가 미래의 질병에 대한 예측에 근거한 차별을 금지하도록 장애인법을 개정해야 한다는 주장도 있다. 환자에게 AI 예측정보를 제공하는 의사는 예측의 장단점에 대해 철저히 교육받도록 해야 한다. 전문가들은 유전검사에 대해 숙련된 전문가들이 하는 것처럼 AI에 대해 환자들을 상담해야 한다.

AI의 전망으로 인해 사람들에게 지나친 걱정을 안겨줄 수도 있다. 그러나 AI가 진정으로 환자의 복지를 촉진하기 위해서는 의사, 연구원, 정책 입안자들이 그 위험을 인식하고 신중하게 진행해야 한다.

【에이아이타임스 aitimes 에이아이타임즈】