(KTSG) - Vào cuối tháng 6 vừa qua, Tổ chức Y tế Thế giới (WHO) đã ban hành báo cáo(1) đầu tiên về ứng dụng của trí tuệ nhân tạo (Artificial intelligence - AI) trong lĩnh vực y tế.
Như tiêu đề của báo cáo “Đạo đức và quản trị AI trong lĩnh vực y tế”, tài liệu này nhấn mạnh tới các khía cạnh đạo đức của việc sử dụng AI, cũng như vấn đề quản trị AI trong việc bảo vệ sức khỏe người dân. Báo cáo cho dù công nhận những “tiềm năng to lớn” của AI, cũng đặc biệt cảnh báo những “tác động tiêu cực” của công nghệ này, và vì thế có mục đích “đưa ra chỉ dẫn cho các quốc gia muốn tối đa hóa những lợi ích của AI, đồng thời hạn chế các nguy cơ và “bẫy” có thể đặt ra trong tương lai”.
Hiện nay, không khó để có thể nhận ra những tác động tích cực của AI trong lĩnh vực y tế, như nâng cao sự nhanh chóng và sự chính xác trong chẩn đoán và phát hiện bệnh, nâng cao chất lượng chăm sóc y tế, góp phần hỗ trợ nghiên cứu và đưa sản phẩm y tế ra thị trường, hỗ trợ quản lý y tế...
Tuy nhiên, một số nguy cơ trong ứng dụng AI cũng được chỉ ra gần đây, như việc thu thập và sử dụng dữ liệu về sức khỏe cá nhân một cách thiếu phù hợp với đạo đức ngành y, hay vấn đề “thiên vị” trong thuật toán (như AI vận hành trên cơ sở dữ liệu thu thập trên người dân ở một nước phát triển thì có nguy cơ không phù hợp khi được sử dụng đối với người dân ở các nước kém phát triển), hay còn là vấn đề nguy cơ đối với an toàn cá nhân của bệnh nhân, với an ninh mạng Internet cũng như với môi trường sống của chúng ta.
Báo cáo của WHO vì thế nhấn mạnh vai trò của các quy định pháp lý hiện hành trong lĩnh vực quyền con người, cũng như những khuynh hướng xây dựng luật mới nhằm đảm bảo các nguyên tắc đạo đức (ethics) trong ứng dụng AI.
Theo báo cáo này, chính phủ và các cơ quan, doanh nghiệp hoạt động trong lĩnh vực y tế cần hợp tác phối hợp chặt chẽ để đảm bảo rằng những quy định và nguyên tắc pháp lý, đạo đức nói trên được đặc biệt tôn trọng trong mỗi bước ứng dụng hay phát triển công nghệ AI.
Để đảm bảo hạn chế nguy cơ và góp phần tối đa hóa lợi ích của AI, WHO khuyến nghị các quốc gia tuân thủ sáu nguyên tắc căn bản, bao gồm: Bảo vệ sự tự chủ của con người; thúc đẩy sự hạnh phúc, an toàn của con người cũng như thúc đẩy lợi ích công cộng; đảm bảo sự minh bạch, rõ ràng và dễ hiểu; khuyến khích nghĩa vụ và trách nhiệm giải trình; đảm bảo sự công bằng và thúc đẩy AI đáp ứng nhanh và có tính bền vững.
Có thể nói, hiện nay, về khía cạnh pháp lý, chúng ta có thể chỉ ra hai thách thức lớn liên quan tới ứng dụng AI trong y tế.
Vấn đề thứ nhất, đó là dữ liệu sử dụng để tạo AI. AI sử dụng một số lượng dữ liệu khổng lồ (big data) để tạo ra những mô hình ứng dụng vào thực tế. Những dữ liệu này đến từ những cơ quan nhà nước về bảo hiểm sức khỏe, từ bệnh viện, từ các hồ sơ bệnh lý, từ dữ liệu của các cơ sở y tế công và tư, từ Internet, ứng dụng điện thoại, từ các công cụ tìm kiếm...
Cần nhấn mạnh rằng, các hệ thống AI trong lĩnh vực y tế đều dựa trên nguyên tắc chia sẻ thông tin. Ở đây, bí mật y tế cũng có thể biến thành thông tin được chia sẻ rộng rãi giữa các nhân viên y tế. Khi có sự góp mặt của AI, thì việc chăm sóc người bệnh không còn là một hoạt động mang tính “cá nhân hóa”, mà là một hoạt động nằm trong một mạng lưới lớn.
Về nguyên tắc, luật hiện hành ở phần lớn các quốc gia đều quy định rằng dữ liệu y tế cá nhân chỉ có thể được thu thập khi cá nhân cho phép, và với điều kiện cá nhân được thông báo rõ ràng về mục đích thu thập và xử lý dữ liệu đó.
Vấn đề là, theo các chuyên gia về AI, dữ liệu thu thập với một mục đích đặt ra ban đầu, lại thường hóa ra cần thiết cho AI để sử dụng trong một mục đích khác.
Ngoài ra, có những dữ liệu được thu thập cho một mục đích nhất định, nhưng sau đó được lưu giữ không giới hạn về thời gian để sử dụng sau này cho một mục đích khác phù hợp hơn. Về nguyên tắc, thực tế này có thể đi ngược lại những nguyên tắc căn bản của luật về dữ liệu cá nhân. Vì thế, cần xem xét khả năng xây dựng luật phù hợp hơn với thực tế, và giải pháp “sandbox” thử nghiệm có thể là giải pháp hợp lý.
Vấn đề thứ hai cần nhắc tới ở đây, là việc AI vận hành như một chiếc “hộp đen” (black box). Điều đó có nghĩa là một khi dữ liệu được đưa vào để AI sử dụng thì ngay cả người sáng tạo ra thuật toán AI cũng không thể dự doán được những mô hình mà AI sẽ tạo ra. Vì người sáng tạo AI mất sự kiểm soát này, nên đặt ra câu hỏi trách nhiệm pháp lý sẽ thuộc về ai, khi có thiệt hại xảy ra.
Ví dụ, ô tô “thông minh” thường được đưa ra để thấy rõ sự thiếu hoàn chỉnh của luật trong lĩnh vực này: khi ô tô không người lái gây ra tai nạn cho một người đi bộ chẳng hạn, thì trách nhiệm thuộc về người tạo ra nó, hay thuộc về người sử dụng ô tô? Câu hỏi tương tự cũng được đặt ra trong lĩnh vực y tế, với những robot phẫu thuật, hay với hệ thống AI dùng để phát hiện bệnh.
Chủ đề này đã gây ra nhiều bàn cãi ở các quốc gia phát triển, thậm chí câu hỏi có nên công nhận AI như pháp nhân có tư cách pháp lý cũng đã từng được đưa ra. Hiện nay, một số chuyên gia hướng tới một hệ thống trách nhiệm “đôi” khi có thiệt hại, bao gồm cả người đưa AI ra thị trường, lẫn người sử dụng AI (bệnh viện hay cá nhân bác sĩ sử dụng thiết bị chẳng hạn).
Cách thức này, tất nhiên, có phần làm nhụt chí những cá nhân liên quan. Vì thế, cũng có chuyên gia đưa ra giải pháp xây dựng một “quỹ”, với mục đích đền bù thiệt hại do AI gây ra, mỗi khi không thể chứng minh được lỗi của người sử dụng, hay của người tạo ra AI.
Cuối cùng, cần nhấn mạnh rằng, các hệ thống AI trong lĩnh vực y tế đều dựa trên nguyên tắc chia sẻ thông tin. Ở đây, bí mật y tế cũng có thể biến thành thông tin được chia sẻ rộng rãi giữa các nhân viên y tế.
Khi có sự góp mặt của AI, thì việc chăm sóc người bệnh không còn là một hoạt động mang tính “cá nhân hóa”, mà là một hoạt động nằm trong một mạng lưới lớn. Vì thế, cần xác định được một sự cân bằng giữa lợi ích cá nhân và lợi ích chung, để mỗi cá nhân đều có thể được chăm sóc sức khỏe một cách hiệu quả, đồng thời vẫn được đảm bảo quyền riêng tư và danh dự cá nhân.
-----------
(1) https://apps.who.int › iris › rest › bitstreams › retrieve