Etter å ha vore på eit par seminar om sosiale medier, der API'ar stadig dukka opp som tema, og omvendt, vart interessa mi vekka for API. På mange måtar er eit API ein inngangsport/inngangsbarriære mellom bedrifter og den utfatteleg store mengda data som vert generert på ulike sosiale medier-plattformar og eg har tru på data! API er litt tungt forklart på t.d. wikipedia, eg kjem seinare inn på kva slags funksjonar eg finn interessante.
I tillegg til alle seminara på konferansen var det svært mange sosiale arrangement, dei starta som regel rundt 1400. Derfor fann eg ut at seminaret #FAIL: Infamous Social Media PR disasters kunne vera ein god start på dagen (derpå!). Og det var det. Marla Erwin hadde seminaret, og det vart ein lett og lystig gjennomgang av bedrifter som hadde tråkka rett i salaten. Det er lett å le, men hugs på at dette er ny grunn som er vanskeleg å bevege seg på. Resultata av desse fiaskoane var iallefall øydeleggande på firmaene sine rykter.
Det var mest kjent stoff, FedEx gjekk i samme fella som Sparebank1 gjorde med "Dø, Oslo Sporveier DØØØØ!",og det må seiast at Sparebank1 handterte situasjonen bedre. Klesbutikken Kenneth Cole prøvde å vera morasamme med denne tweeten: "Millions are in uproar in #Cairo. Rumor is they heard our new spring collection is now available online at http://bit.ly/KCairo -KC”. Til og med med #Cairo-hashtaggen! Det gjekk jo heller ikkje bra. Kevin Smith sin veldokumenterte krangel med Southwest Airlines kom opp, det samme med Unitied Airline breaks guitar (over 10 millionar visningar!).
Eit ukjent men interessant eksempel for min del var Google-bombinga av Amazon Rank. I 2009 fjerna Amazon bøker med "adult content" frå sine rangeringar, slik at det vart bortimot umogeleg å finne dei via vanlege søk på Amazon. Men det var inkonsekvent, slik at bøker som skildra homoseksuelle forhold (og som ikkje innholdt skildring av homoseksuelle akter) likevel vart sensurerte, medan t.d. Playboy fritt gjekk gjennom. Dette førte til at det vart sett opp ein haug nettsider for å øydelegge søkeresultata for Amazon Rank, og i dag, to år etter, fører fire av dei fem øverste treffa på Googlesøket på Amazon Rank til kritiske artiklar om Amazon i staden for forklaring av tenesta. Amazon har aldri svart skikkeleg på spørsmåla rundt rankinga og konsekvensane er her enno.
Omgrepet Flog (Fake Blog) vart diskutert, det er ikkje å anbefale. Nytt for meg var eksempelet med Pepsi Amp, ein mobil-app som skulle hjelpe unge menn å sjekke opp ulike kvinnetyper. I tillegg gjorde appen det lett å skryte av sine erobringar på facebook og twitter. Resultatet var #pepsifail.
Målet med sesjonen var sjølvsagt å unngå #fail, og råda for det var: Tenk deg om, vær smidig og vis respekt!
Neste sesjon var "Chatter Matters: Using Twitter to Predict Sales". Eg er interessert i sosiale medier, men eg er kanskje enno meir interessert i data. Og sosiale medier, dei genererer ufattelege mengder av data. Om ein berre kunne bruke det til noko! Det var det Elizabeth Winkler og co hadde gjort med data frå twitter og IMDB. Dei kunne vise til (klare?) samanhengar mellom antall tweets om ein film før premieren, inntektene på premieredagen, talet og innhaldet i tweets etter premièredagen og kor lenge filmen kom til å gå på kino. Artikkelen "Follow the tweets" i WSJ er basert på denne forskinga. Fascinerande greier, eg digga det. I løpet av seansen kom dette med API opp - for å få tak i dei data dei trengte, hadde dei 20 servarar som kontinuerlig henta ut data via twitter sitt API, dette var naudsynt p.g.a. begrensingar twitter har lagt på kor mykje data som kan hentast ut om gongen.
Det var her eg opna augene litt for dette med API. Dette var og ein viktig del i den neste, og mest tekniske, sesjonen eg deltok på: Hacking RSS: Filtering & Processing Obscene Amounts of Information. Der vart det vist korleis ein kan bruke Yahoo Pipes for å filtrere informasjon. Foredragshaldaren Dawn Foster har blogga og lagt ut presentasjonen på bloggen sin. Eit forsøk på enkel forklaring rundt dette: Ein kan abonnere på bloggpostar, nyhende etc ved hjelp av RSS, og få vist sakene ein abonnerer på i ein RSS-lesar som t.d. Google Reader. Problemet er at ein fort kan få mange saker i ein slik oversikt, kva bør ein lese? Postrank indekserer bloggpostar etter talet på visningar, kommentarar, lenker etc. Ein kan då bruke data frå PostRank til å sortere dei postane ein har abonnert på, slik at dei mest populære postane kjem øverst. Eit anna eksempel som vart brukt var å lage ein feed der ein kan sjå kor mange som følger dei som postar vidare dine lenker på twitter. Fascinerande, men som sagt, for spesielt interesserte.
Neste og siste API-tema eg fekk presentert var Beyond Wordclouds: Analyzing Trends with Social Media APIs. Det var bra med folk på denne sesjonen, så det er tydelegvis eit tema som er i vinden! Chris Busse har lagt ut presentasjonen på sin blogg for dei som vil sjekke den ut. Svært interessante greier dette også. Eit av poenga eg tok med meg er at du gjennom API får tilgang til mykje meir informasjon enn ved vanleg tilgang til data, i t.d. Twitter, og ein kan og gi opp flere parameter og få bedre søkjeresultat. Ein annan ting eg tok med meg var at resultatet av eit twittersøk er forma som ein database, og dette er eit språk som Business Intelligence-avdelinga forstår, dei kan opprette felt og putte dette saman inn med andre data som bedrifta genererer. Med andre ord: Tweets+Your CRM = Social CRM! Det vart og presentert ein modell for å måle ROI på sosiale medier: Engage - få ut budskapet, Search and Store - hent ut meldinga med budskapet + anna relevant info frå API'et, Track - spor effekten av budskapet, koble inn webanalyser og interne salgsdata, Profit! koble innsats i sosiale medier saman med salg, finn ut verdien av tiltaka. Eg er ganske sikker på at det høyres mykje lettare ut enn det er å få til i praksis. Til slutt vart eit artig eksempel presentert: 100 000 tweets om kaffi i konferanseperioden. Sjekk ut presentasjonen!
Mine konklusjonar:
Folk genererer mykje data på sosiale medier, og desse dataene inneheldt potensielt verdfull forretningsinformasjon. Desse dataene er strukturert med tanke på innsamling frå dei som driftar ulike sosiale medier. Datastrukturane kan hentast ut ved hjelp av API, men må strukturerast på nytt for analyse hjå bedriftene, og setjast saman med eksisterande data. Her ligg det stort potensiale, og store utfordringar! Ein av filmane som vart analysert på den eine sesjonen var "The Hangover", og det skulle ein god sorteringsjobb til for å finne ut kva slags tweets som omhandla fenomenet/tilstanden og kva som omhandla filmen.
Det er vanskeleg å seie kven som eig data, men dei vert uansett samla på servarane til dei som tilbyr sosiale medier, og ettersom dette er potensielt verdifulle data tar dei betalt for tilgang (data is the new oil!). Det fins mange modellar for betaling som eg ikkje skal gå inn på her. Utfordringa for bedriftene er å få oversikt over kva slags data som vert generert, og kva dei kan tenkje seg å bruke.
Eg trur det vil skje mykje innan dette feltet!