Politik

AI: bikinis, maskininlärning och diagnoser inom sjukvården automatiseras

En av favoritapparna på hackathon har på kort tid blivit appar man kan använda för att ta bilder av huden och ladda upp till datormolnen där ett maskininlärningsprogram scannar bilden för att se om den innehåller tecken på Melanoma eller inte.

En app som man idag kan skriva på mindre än 24 timmar. Dock är det viktigt att påpeka att de här apparna inte är mer än exempel på vad som kommer inom några år.

Men maskininlärning är idag stekhett och bilden ovan visar vad som är på väg. Dvs. att man kommer att kunna ta selfies av misstänkta märken på huden och sen få dom automatiskt scannade av ett maskininlärningsprogram i datormolnen som sen skickar tillbaks en diagnos.

Siddhartha Mukherjee skriver i New Yorker Magazine:

A.I. Versus M.D. What happens when diagnosis is automated?


When teaching the machine, the team had to take some care with the images. Thrun hoped that people could one day simply submit smartphone pictures of their worrisome lesions, and that meant that the system had to be undaunted by a wide range of angles and lighting conditions. But, he recalled, “In some pictures, the melanomas had been marked with yellow disks. We had to crop them out—otherwise, we might teach the computer to pick out a yellow disk as a sign of cancer.”
…..
Thrun blithely envisages a world in which we’re constantly under diagnostic surveillance. Our cell phones would analyze shifting speech patterns to diagnose Alzheimer’s. A steering wheel would pick up incipient Parkinson’s through small hesitations and tremors. A bathtub would perform sequential scans as you bathe, via harmless ultrasound or magnetic resonance, to determine whether there’s a new mass in an ovary that requires investigation. Big Data would watch, record, and evaluate you: we would shuttle from the grasp of one algorithm to the next. To enter Thrun’s world of bathtubs and steering wheels is to enter a hall of diagnostic mirrors, each urging more tests.
…..
“The role of radiologists will evolve from doing perceptual things that could probably be done by a highly trained pigeon to doing far more cognitive things,” he told me. His prognosis for the future of automated medicine is based on a simple principle: “Take any old classification problem where you have a lot of data, and it’s going to be solved by deep learning. There’s going to be thousands of applications of deep learning.” He wants to use learning algorithms to read X-rays, CT scans, and MRIs of every variety—and that’s just what he considers the near-term prospects. In the future, he said, “learning algorithms will make pathological diagnoses.” They might read Pap smears, listen to heart sounds, or predict relapses in psychiatric patients.

Det mest spännande med framtidens sjukvårdssystem är som Siddhartha Mukherjee skriver i New Yorker Magazine att de kommer att kunna kopplas till vårt vardagsliv och ge utlånande på löpande band. Och att vi inte behöver köra in till vår vårdcentral och vänta i tio timmar för att få ett utlånande.

Och det område som f.n. ligger längst fram är kanske just bildigenkänning där vi kan träna IT-system i molnen att känna igen olika slags bilder. Som Melanoma, eller bilder på vad som helst. Som vi kan experimentera med på den här gratissajten

Men det här är bara början. För bildigenkänningssajten ovan är som de flesta andra liknande sajter tillgänglig vid ett s.k. API för alla. Gratis om man bara vill experimentera och med ett kreditkort för allvarligt användning.

Och det betyder att icke-medicinare kan utveckla appar på ett antal sjukvårdsområden genom att använda APIn.

En mycket intressant utveckling.