Klicka på Austin-företaget Infochimps.
Iskuggan av Big Data eller Rådatarörelsen, så pågår en dramatiskt tävling för att skapa det enklaste sättet att analysera stora mängder data som överhuvudtaget möjligt.
Förr om åren kunde IT-folk med överkammad flint, fickskydd och vit poplinskjorta med smal slips kunna sitta böjda framför sina gamla dataterminaler och meka med data i veckor innan nån VD kom och undrade hur fan länge dom skulle behöva läsa på den senaste dataanalysen.
Idag är användbarhet och snabbhet honnörsord och knattar som verkar som dom knappast ens har hunnit börja raka sig skriver kilometervis med datorkod som gör det allt enklare och snabbare att utföra dataanalys av gigantiska mängder med komplexa data.
Rekordet innehas av datormonlplattformen Heroku som Heroku är ett s.k. Serice as a Platformplattform (Paas) som ägs av Salesforce.com. Herokou använder t versionshanteringsprogrammet Git som skapades av den inte helt okände Linus Torvalds, Linux skapare.
Derrick Harris skriver på GigaOm om hur ett startupföretag i Austin i texas nu försöker skapa en Heroku-liknande process för Big Data i realtid: Infochimps makes its big-data-for developers real-time