侵權(quán)投訴
訂閱
糾錯(cuò)
加入自媒體

GPT醫(yī)生,會(huì)加劇醫(yī)療不平等嗎?

文/陳根

隨著AI+醫(yī)療的不斷成熟,尤其是基于GPT訓(xùn)練醫(yī)生正在成為現(xiàn)實(shí)。日前,有科學(xué)家警告說,醫(yī)療保健中的人工智能可能會(huì)加劇種族和收入不平等。

來自劍橋大學(xué)和萊斯特大學(xué)的流行病學(xué)家警告說,大型語言模型(LLM)可能會(huì)加深少數(shù)民族和低收入國家的不平等。尤其是在醫(yī)療保健中使用ChatGPT等人工智能模型會(huì)加劇不平等。

那么這種擔(dān)心是來源于哪里呢?主要是科學(xué)家擔(dān)憂源于系統(tǒng)性的數(shù)據(jù)偏差。醫(yī)療保健中使用的人工智能模型是根據(jù)來自網(wǎng)站和科學(xué)文獻(xiàn)的信息進(jìn)行訓(xùn)練的。但有證據(jù)表明,這些來源往往缺少種族數(shù)據(jù)。也就是說,GPT醫(yī)生基于前沿的醫(yī)學(xué)知識(shí)進(jìn)行訓(xùn)練之后,在診斷層面會(huì)有明顯的優(yōu)勢(shì),但是在開具藥方建議方面可能會(huì)出現(xiàn)無效藥方的情況。

這主要是兩方面的原因:一方面是在不同地區(qū)的藥物會(huì)有很大的差異,尤其是貧困地區(qū)很難擁有最新的,或者比較先進(jìn)的藥物,這就會(huì)導(dǎo)致GPT醫(yī)生所開具的藥物處方失效;另外一方面是針對(duì)于不同族群,由于基因、體型方面的差異,患者所使用的藥物劑量也會(huì)存在著比較大的差異,這也會(huì)導(dǎo)致GPT醫(yī)生開具無效的藥物建議或基于特定種族的醫(yī)療建議。

此外,科學(xué)家們還擔(dān)心對(duì)低收入和中等收入國家(LMICs)的威脅。當(dāng)前基于GPT所訓(xùn)練的醫(yī)生,這種人工智能模型主要是由較富裕的國家所訓(xùn)練與開發(fā),這些國家也主導(dǎo)著醫(yī)學(xué)研究的資金。而中低收入國家的醫(yī)療數(shù)據(jù)在GPT醫(yī)生的訓(xùn)練過程中,在醫(yī)療數(shù)據(jù)中的“代表性嚴(yán)重不足”。這可能導(dǎo)致GPT醫(yī)生無法根據(jù)一些非發(fā)達(dá)國家的實(shí)際醫(yī)療情況,給出客觀有效的診療建議。

但是不論如何,這至少讓我們看到了借助于GPT醫(yī)生可以在疾病診斷層面,實(shí)現(xiàn)有效的平等化,而在治療方面或許還需要一些時(shí)間,或許會(huì)在GPT醫(yī)生的推動(dòng)下,我們?nèi)祟惿鐣?huì)會(huì)迎來基于GPT醫(yī)生的醫(yī)療標(biāo)準(zhǔn)共享體系。

       原文標(biāo)題 : 陳根:GPT醫(yī)生,會(huì)加劇醫(yī)療不平等嗎?

聲明: 本文由入駐維科號(hào)的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場(chǎng)。如有侵權(quán)或其他問題,請(qǐng)聯(lián)系舉報(bào)。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長度6~500個(gè)字

您提交的評(píng)論過于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評(píng)論

暫無評(píng)論

    文章糾錯(cuò)
    x
    *文字標(biāo)題:
    *糾錯(cuò)內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號(hào)