AI -experter diskuterar hur man integrerar robust AI i hälso- och sjukvård, varför tvärvetenskapligt samarbete är kritiskt och potentialen för generativ AI i forskning.
Feifei Li och Lloyd Minor gav öppningsanmärkningar vid det första höjningssymposiet vid Stanford University School of Medicine den 14 maj. Steve Fish
De flesta människor som fångats av konstgjord intelligens har haft ett slags "aha" -moment och öppnat sina sinnen för en värld av möjligheter. Vid det första höjning av Health Symposium den 14 maj delade Lloyd Minor, MD, dekan vid Stanford University School of Medicine och vice president för medicinska frågor vid Stanford University, sitt perspektiv.
När en nyfiken tonåring ombads att sammanfatta sina resultat angående det inre örat, vände han sig till generativ konstgjord intelligens. "Jag frågade:" Vad är överlägset kanal dehiscence syndrom? " Minor berättade nästan 4 000 symposiumdeltagare. På några sekunder dök upp flera stycken.
"De är bra, riktigt bra," sade han. ”Att denna information sammanställdes till en kortfattad, generellt korrekt och tydligt prioriterad beskrivning av sjukdomen. Detta är ganska anmärkningsvärt. ”
Många delade minderåriga spänningar för halvdagsevenemanget, som var en utväxt av Raise Health Initiative, ett projekt som lanserades av Stanford University School of Medicine och Stanford Institute for Human-Centered Artificial Intelligence (HAI) för att vägleda ansvarsfull användning av konstgjord intelligens. Intelligens inom biomedicinsk forskning, utbildning och patientvård. Talarna undersökte vad det innebär att implementera konstgjord intelligens inom medicin på ett sätt som inte bara är användbart för läkare och forskare, utan också transparenta, rättvisa och rättvisa för patienter.
"Vi tror att detta är en teknik som förbättrar mänskliga kapaciteter," säger Fei-Fei Li, professor i datavetenskap vid Stanford School of Engineering, chef för Rain Health med mindre projekt och meddirektör för HAI. Generation efter generation kan ny teknik dyka upp: från nya molekylära sekvenser av antibiotika till kartläggning av biologisk mångfald och avslöjar dolda delar av grundläggande biologi, AI påskyndar vetenskaplig upptäckt. Men inte allt detta är fördelaktigt. "Alla dessa applikationer kan få oavsiktliga konsekvenser, och vi behöver datavetare som utvecklar och implementerar [konstgjord intelligens] ansvarsfullt och arbetar med en mängd olika intressenter, från läkare och etiker ... till säkerhetsexperter och därefter," säger hon. "Initiativ som höjning av hälsa visar vårt engagemang för detta."
Konsolideringen av tre divisioner av Stanford Medicine - School of Medicine, Stanford Health Care och Stanford University School of Child Health Medicine - och dess anslutningar till andra delar av Stanford University har satt det i en position där experter kämpar med utvecklingen av Konstgjord intelligens. Hanterings- och integrationsproblem inom sjukvård och medicin. Medicin, låten gick.
”Vi är väl positionerade att vara en pionjär inom utvecklingen och ansvarsfullt implementering av konstgjord intelligens, från grundläggande biologiska upptäckter till förbättring av läkemedelsutvecklingen och göra kliniska prövningsprocesser mer effektiva, till och med till den faktiska leveransen av sjukvårdstjänster. Sjukvård. Hur sjukvårdssystemet är inrättat, sade han.
Flera högtalare betonade ett enkelt koncept: fokus på användaren (i detta fall patienten eller läkaren) och allt annat kommer att följa. "Det sätter patienten i mitten av allt vi gör," sade Dr. Lisa Lehmann, chef för bioetik på Brigham and Women's Hospital. "Vi måste överväga deras behov och prioriteringar."
Från vänster till höger: Stat Nyhetsankare Mohana Ravindranath; Jessica Peter Lee från Microsoft Research; Sylvia Plevritis, professor i biomedicinsk datavetenskap, diskuterar rollen som konstgjord intelligens i medicinsk forskning. Steve Fish
Högtalare på panelen, som inkluderade Lehmann, Stanford University Medical Bioeticist Mildred Cho, MD och Google Chief Clinical Officer Michael Howell, MD, noterade komplexiteten i sjukhussystem och betonade behovet av att förstå deras syfte före något ingripande. Implementera det och se till att alla utvecklade system är inkluderande och lyssnar på de människor de är utformade för att hjälpa till.
En nyckel är transparens: det gör det klart var de data som används för att träna algoritmen kommer från, vad det ursprungliga syftet med algoritmen är och om framtida patientdata kommer att fortsätta hjälpa algoritmen att lära sig, bland andra faktorer.
"Att försöka förutsäga etiska problem innan de blir allvarliga [betyder] att hitta den perfekta söta platsen där du vet tillräckligt om tekniken för att ha lite förtroende för den, men inte innan [problemet] sprider sig ytterligare och löser det förr." Sa Denton Char. Kandidat för medicinska vetenskaper, docent vid avdelningen för pediatrisk anestesiologi, perioperativ medicin och smärtmedicin. Ett viktigt steg, säger han, är att identifiera alla intressenter som kan påverkas av tekniken och bestämma hur de själva skulle vilja svara på dessa frågor.
Jesse Ehrenfeld, MD, ordförande för American Medical Association, diskuterar fyra faktorer som driver antagandet av alla digitala hälsoverktyg, inklusive de som drivs av artificiell intelligens. Är det effektivt? Kommer detta att fungera på min institution? Vem betalar? Vem är ansvarig?
Michael Pfeffer, MD, Chief Information Officer för Stanford Health Care, citerade ett nyligen exempel där många av frågorna testades bland sjuksköterskor på Stanford Hospital. Kliniker stöds av stora språkmodeller som ger initiala kommentarer för inkommande patientmeddelanden. Även om projektet inte är perfekt, läkare som hjälpte till att utveckla teknikrapporten som modellen underlättar deras arbetsbelastning.
”Vi fokuserar alltid på tre viktiga saker: säkerhet, effektivitet och inkludering. Vi är läkare. Vi tar en ed för att "göra ingen skada", sa Nina Vasan, MD, klinisk biträdande professor i psykiatri och beteendevetenskap, som gick med i Char och Pfeffer gick med i gruppen. "Detta bör vara det första sättet att utvärdera dessa verktyg."
Nigam Shah, MBBS, Ph.D., professor i medicin och biomedicinsk datavetenskap, inledde diskussionen med en chockerande statistik trots rättvis varning för publiken. "Jag pratar i allmänna termer och siffror, och ibland tenderar de att vara väldigt direkt," sade han.
Enligt Shah beror AI: s framgång på vår förmåga att skala den. ”Att göra korrekt vetenskaplig forskning om en modell tar cirka tio år, och om var och en av de 123 stipendieprogrammen ville testa och distribuera modellen till den nivån av rigoritet, skulle det vara mycket svårt att göra rätt vetenskap som vi för närvarande organiserar Våra ansträngningar och [test]] Det skulle kosta 138 miljarder dollar för att se till att alla våra webbplatser fungerar korrekt, ”sa Shah. ”Vi har inte råd med detta. Så vi måste hitta ett sätt att expandera, och vi måste expandera och göra god vetenskap. Rigorförmågan är på ett ställe och skalningsförmågan finns i en annan, så vi kommer att behöva den typen av partnerskap. ”
Associate Dean Yuan Ashley och Mildred Cho (mottagning) deltog i Raise Health Workshop. Steve Fish
Vissa talare på Symposium sa att detta kan uppnås genom offentlig-privata partnerskap, till exempel den senaste Vita husets verkställande ordning på säker, säker och pålitlig utveckling och användning av konstgjord intelligens och konsortiet för sjukvårds artificiell intelligens (CHAI). ).
"Det offentlig-privata partnerskapet med den största potentialen är ett mellan akademin, den privata sektorn och den offentliga sektorn," sa Laura Adams, seniorrådgivare för National Academy of Medicine. Hon noterade att regeringen kan säkerställa allmänhetens förtroende och akademiska medicinska centra kan. Ge legitimitet och teknisk expertis och datortid kan tillhandahållas av den privata sektorn. "Vi är alla bättre än någon av oss, och vi inser att ... vi kan inte be om att inse potentialen för [konstgjord intelligens] såvida vi inte förstår hur vi ska interagera med varandra."
Flera talare sa att AI också påverkar forskningen, om forskare använder den för att utforska biologisk dogma, förutsäga nya sekvenser och strukturer av syntetiska molekyler för att stödja nya behandlingar eller till och med hjälpa dem att sammanfatta eller skriva vetenskapliga artiklar.
"Detta är en möjlighet att se det okända," sade Jessica Mega, MD, en kardiolog vid Stanford University School of Medicine och medgrundare av Alfabetets sannolikhet. Mega nämnde hyperspektral avbildning, som fångar bildfunktioner som är osynliga för det mänskliga ögat. Tanken är att använda artificiell intelligens för att upptäcka mönster i patologiska bilder som människor inte ser det indikerar sjukdom. ”Jag uppmuntrar människor att omfamna det okända. Jag tror att alla här känner någon med något slags medicinskt tillstånd som behöver något utöver vad vi kan ge idag, ”sa Mejia.
Paneldeltagarna enades också om att konstgjorda intelligenssystem kommer att tillhandahålla nya sätt att identifiera och bekämpa partisk beslutsfattande, oavsett om det är fattat av människor eller konstgjord intelligens, med förmågan att identifiera källan till förspänningen.
"Hälsa är mer än bara medicinsk vård," var flera paneldeltagare överens. Talare betonade att forskare ofta förbiser sociala determinanter för hälsa, såsom socioekonomisk status, postnummer, utbildningsnivå och ras och etnicitet, när de samlar in inkluderande data och rekryterar deltagare till studier. "AI är bara lika effektiv som de uppgifter som modellen är utbildad", säger Michelle Williams, professor i epidemiologi vid Harvard University och docent i epidemiologi och befolkningshälsa vid Stanford University School of Medicine. ”Om vi gör det vi strävar efter att göra. Förbättra hälsoutfallet och eliminera ojämlikheter, vi måste se till att vi samlar in data av hög kvalitet om mänskligt beteende och den sociala och naturliga miljön. ”
Natalie Pageler, MD, klinisk professor i pediatrik och medicin, sa att aggregerade cancerdata ofta utesluter data om gravida kvinnor, vilket skapar oundvikliga fördomar i modeller och förvärrar befintliga skillnader inom hälsovård.
Dr. David Magnus, professor i pediatrik och medicin, sa att som alla nya tekniker, konstgjord intelligens kan antingen göra saker bättre på många sätt eller göra dem värre. Risken, sade Magnus, är att konstgjorda intelligenssystem kommer att lära sig om orättvisa hälsoutfall som drivs av sociala determinanter för hälsa och förstärker dessa resultat genom deras produktion. "Konstgjord intelligens är en spegel som återspeglar det samhälle vi lever i," sade han. "Jag hoppas att varje gång vi har möjlighet att lysa ett ljus på en fråga - att hålla en spegel upp till oss själva - kommer det att tjäna som motivation att förbättra situationen."
Om du inte kunde delta i Raise Health Workshop kan en inspelning av sessionen hittas här.
Stanford University School of Medicine är ett integrerat akademiskt sjukvårdssystem som består av Stanford University School of Medicine och de vuxna och pediatriska leveranssystemen för sjukvården. Tillsammans inser de den fulla potentialen för biomedicin genom samarbetsforskning, utbildning och klinisk patientvård. För mer information, besök med.stanford.edu.
En ny konstgjord intelligensmodell hjälper läkare och sjuksköterskor på Stanford Hospital att arbeta tillsammans för att förbättra patientvården.
Posttid: Jul-19-2024