임상 데이터 관리에서 AI를 활용하기 위한 기본 5E 원칙

현대의 임상시험은 광범위한 소스에서 수집되는 디지털화된 소스 데이터의 확장, 분산형 임상시험(DCT), 적응형 설계로 인해 점점 더 복잡해지고 있습니다. 또한 인공지능(AI)은 약물 및 디바이스 개발 과정 전반에 걸친 다양한 혁신적 응용 분야에서 활용되고 있습니다. AI는 크게 머신러닝(ML) 시스템과 생성형 AI를 포함해 여러 차원으로 분류할 수 있습니다. ML 시스템은 AI를 활용하여 잘 정의된 작업을 수행하고 숨겨진 데이터 패턴을 찾아내는 반면, 최근 몇 년간 가장 주목받고 있는 생성형 AI는 잘 정의된 학습을 받았지만 거의 무한한 응용 가능성을 지닌 알고리즘을 기반으로 합니다.
AI에는 임상 데이터 관리(CDM) 프로세스를 간소화하는 동시에 시간과 리소스 활용을 최적화할 수 있는 상당한 잠재력이 있습니다. 메디데이터는 최적의 임상시험 설계, 규제 마일스톤을 뒷받침하는 근거 생성, 임상 데이터의 효율적 관리 등 AI/ML을 활용한 전체 임상 개발 주기 개선에 중점을 두고 있습니다.
이러한 막대한 잠재력에도 불구하고 AI를 성공적으로 통합하기 위해서는 Essential(필수적), Efficient(효율적), Enjoyable(즐거운), Explainable(설명 가능한), Ethical(윤리적)이라는 기본 5E 원칙을 면밀히 고려해야 합니다. AI의 효과적인 활용을 위한 포괄적인 프레임워크를 제시하는 이러한 원칙을 아래에 자세히 소개합니다.
Essential(필수적): 워크플로에 AI가 필요한가, 아니면 단순한 자동화로 충분한가?
AI는 진정으로 가치를 창출하는 영역에 적용되어 표준적인 데이터 관리 접근법이나 단순한 자동화 방식으로는 해결할 수 없는 문제를 다뤄야 합니다. 예를 들어, 로우코드/노코드 환경을 비롯해 변수 명명과 같이 특정 임상시험의 세부 사항에 맞춰 조정할 수 있는 반복 가능한 템플릿을 사용하면 많은 데이터 검토 확인 작업을 자동화할 수 있습니다. 이는 비교적 간단한 방법으로, AI 알고리즘을 학습시키는 데 필요한 방대한 데이터 없이도 필요한 출력물을 대체로 정확하게 제공합니다. 하지만 AI는 안전성 데이터의 일관성과 완전성을 보장하거나 대량의 변경 이력 데이터를 추출 및 분석하는 보다 복잡한 시나리오에서 필수적인 역할을 합니다. 이러한 사례에서 AI는 누락된 정보를 식별하고, 불일치를 표시하며, 조치가 필요한 정보만 사용자에게 제시함으로써 수작업을 대폭 줄일 수 있습니다.
Enjoyable(즐거운): 사용자 피드백을 바탕으로 아웃풋을 미세 조정하여 오탐을 줄일 수 있는가?
임상 데이터 관리를 위한 AI 활용 원칙과 관련하여 Enjoyable(즐거운)은 전반적인 사용자 경험을 의미합니다. AI 솔루션은 실행 가능한 권고를 제공하는 가상 비서로서 향상된 사용자 경험을 구축해야 합니다. 여기에는 노이즈 및 오탐 감소, 손쉬운 시스템 사용법 구현, 사용자가 제공하는 피드백을 바탕으로 출력물을 지속적으로 개선할 수 있는 HITL(Human-In-The-Loop) 메커니즘 통합이 포함됩니다.
또한 사용자가 AI 출력물과 기초 데이터 간 교차 검증을 원활히 수행할 수 있도록 모든 관련 정보와 참고 자료를 동일한 환경 내에서 액세스할 수 있어야 합니다. AI 검사를 기초 데이터와 필수 조치에 연계하여 데이터 관리자의 워크플로를 간소화하고, 데이터 관리자는 AI가 생성한 인사이트와 손쉽게 상호작용하면서 보다 중요한 작업에 집중함으로써 즐거운 경험을 누릴 수 있습니다.
Efficient(효율적인): AI가 워크플로 통합을 개선하고, 측정 가능한 ROI를 생성하며, 사용자 부담을 줄여주는가?
AI가 사용자에게 유의미한 효율성을 제공하는지를 평가하는 것이 중요합니다. 예를 들어, AI 알고리즘 학습을 위한 데이터가 충분하지 않은 경우 또는 매우 세밀한 시험계획서별 작업의 경우 상당한 개발 투자가 필요하고 복제 가능성이 낮아질 수 있으며 오탐 발생 빈도가 높아져 투자 수익(ROI)이 감소할 수 있습니다. 또한 기존 프로세스가 이미 자동화되어 있는지, 그리고 AI가 제공하는 개선 사항이 개발 작업을 추가로 진행할 만큼 가치가 있는지도 반드시 고려해야 합니다.
다양한 소스에서 수집한 데이터의 수동 병합 작업이나 의료 코딩과 같은 대량의 반복적인 작업은 AI를 적용해볼 수 있는 주요 분야입니다. 이러한 작업은 규모가 크고, 많은 시간이 소요되며, 전문지식이 필요할 수 있습니다. 데이터 관리자는 AI를 활용해 이러한 프로세스를 간소화함으로써 보다 중요한 작업, 품질 개선 및 선제적 근본 원인 분석에 집중할 수 있습니다. 전반적으로 AI를 가상 비서로 활용하면 수작업을 대폭 줄이고, 사용자 부담을 완화하며, ROI를 대폭 개선할 수 있습니다.
Explainable(설명 가능한): AI 모델의 의사결정 로직이 사용자를 안심시키는가?
AI에 대한 주된 우려는 AI의 “블랙박스” 특성으로 인해 의사결정 프로세스에 투명성이 부족할 수 있다는 점입니다. 설명 가능한 AI 시스템은 알고리즘을 명확히 설명하여 데이터 관리자와 규제 기관을 포함한 모든 이해관계자가 알고리즘을 쉽게 이해할 수 있게 해줍니다. 이는 AI의 학습, 작동 및 결론 도출 방식을 설명하는 것을 의미합니다. 이러한 설명 가능성은 사용자 도입에 중요할 뿐만 아니라 AI의 Enjoyable(즐거운) 원칙에도 영향을 미칩니다.
예를 들어, 의료 코딩에 사용되는 AI 알고리즘이 항상 100%의 정확도를 보장할 수는 없지만 92%~94%의 높은 수준을 달성할 수 있다는 점을 사용자에게 설명하는 것이 중요합니다. 또는 생성형 AI의 변경 이력 기능을 통해 생성된 데이터 세트의 정확성을 보장하기 위해 확인용 SQL 문구를 직접 볼 수 있는 기능을 제공해야 합니다. 그리고 사용자는 시스템의 지속적인 개선을 위해 사람의 꾸준한 피드백이 필요하다는 점을 이해해야 합니다. 설명 가능성은 이러한 요소를 통합하여 AI에 대한 사용자의 신뢰를 구축하고 효과적인 상호작용을 촉진함으로써 궁극적으로 더 나은 도입과 정확한 결과를 이끌어냅니다.
Ethical(윤리적인): AI 시스템이 편향을 방지하고 공정성을 보장하도록 설계되었는가?
AI 시스템의 윤리적 측면과 관련하여 반드시 고려해야 할 몇 가지 주요 사항이 있는데, 이는 알고리즘 학습에 사용되는 데이터에서 시작됩니다. 데이터가 알고리즘에 편향을 유발할 수 있는지 평가하는 동시에 데이터 개인정보보호 규정을 준수하는 것이 가장 중요합니다. 또한 사람의 피드백을 편향 없이 통합할 수 있는 강력한 방법론을 사용해야 합니다. 이를 위해서는 피드백을 집계하고, 알고리즘에 적용하기 전에 통계적 유의성을 확인하여 특정 사용자의 입력이 결과에 과도한 영향을 미치지 않도록 해야 합니다.
앞서 논의했듯이 AI의 “블랙박스” 특성과 관련한 투명성도 매우 중요한 요소입니다. 사용자와 이해관계자는 알고리즘이 어떻게 개발되었는지, 어떤 데이터가 사용되었는지, 개인정보보호를 위해 어떤 프로세스가 구축되었는지 파악해야 합니다. 또한 AI 기반 기능의 운영 및 실행 전반에 걸쳐 데이터 개인정보보호를 엄격히 유지하는 동시에 피드백 데이터가 고객들에게 유출되지 않도록 해야 합니다.
이러한 윤리적 고려 사항을 해결함으로써 데이터와 AI의 사용에 대한 가장 높은 행동 기준을 준수할 수 있습니다. 이 접근 방식은 사용자와 이해관계자의 신뢰를 구축하고, 규제 요건을 충족하며, AI의 책임 있는 사용을 촉진합니다. 윤리적 원칙의 통합은 임상 데이터 관리에서 AI의 공정하고 투명하며 책임 있는 적용을 지원하는 프레임워크를 형성합니다.
결론
Essential(필수적), Efficient(효율적), Enjoyable(즐거운), Explainable(설명 가능한), Ethical(윤리적)로 구성된 5E는 현대의 데이터 관리 조직이 AI를 성공적으로 구현하는 데 있어 기본 원칙으로 작용합니다. AI는 이러한 핵심 요소에 중점을 두고 효율성, 정확성 및 사용자 경험을 크게 개선하는 동시에 투명성과 윤리적 무결성을 유지할 수 있습니다.
Contact Us
