API Måndag – web scraping och kartor

Veckans API-nyheter handlar om ett nytt verktyg för att skapa APIer baserat på sajter och en användbar uppdatering av Google Maps API. Ännu mer om APIer och öppna data får ni om ni stalkar @andreaskrohn på Twitter.

Från webbsajt till data

Det finns väldigt mycket data på webben idag, men det är inte alltid så lätt att komma åt den. Man kan skriva egna script för att skrapa en sajt, eller använda tjänster som diffbot, kimono eller import.io. Den sistnämna har just kommit ut med Magic, ett nytt verktyg som automagiskt gör data från en webbsajt tillgänglig som en nerladdningsbar CSV-file eller via ett API. Testa själva på mashup.se så ser ni att det fungerar rätt bra.

Tyvärr är det problemet som Import.io’s Magic löser, dvs att tekniskt få tillgång till data på en webbsajt, inte särskilt svår att lösa. Det stora problemet är att man med största sannolikhet riskerar att bryta mot Upphovsrättslagen så fort man gör det. Inte för att det verkar ha någon större inverkan på de som skrapar sajter på en industriell skala, dvs Google och andra jätteföretag.

Personaliserade kartor

Googla har lagt till ny funktionalitet i sitt Google Maps JavaScript API som gör det möjligt för en användare att visa sina egna platser (tex hem och arbete) på kartor på vilken sajt som helst. Hittills så har de 2 miljoner sajter som använder Google Maps inte kunnat visa användares sparade platser, men genom att lägga till &signed=true i API-anropet så kan inloggade Google användare se sina sparade platser samt spara nya platser. Användaren kan sedan komma åt dessa platser via web och appar. Ett bra sätt för utvecklare att låta användare spara informationen och ett mycket bra sätt för Google att samla ännu mer information om oss.