The Future is search... eller ej

03/09/2015

The Future is search... eller ej

Artikel af Brian Jacobsen, CTO & Partner, Taxon ApS 
 
For nyligt dukkede der en henvisning til en konference op i min nyhedsstrøm. Et af indlæggene hed 'The future is search'. Det satte nogle tanker i gang og jeg må nok erklære mig helt uenig - i hvert fald når det kommer til intern søgning. 
Med intern søgning mener jeg, at man er logget ind på et system. Typisk på sit arbejde, er man logget ind på virksomhedens netværk. Det kan også være en web service, hvor man er logget ind, f.eks. Google, Facebook etc. 
 
For at forklare min uenighed må vi kigge på hvad søgning egentlig dækker over. 
 
Det allerførste trin i en søgning er, at erkende at man har et behov for information. Mange af os udfører mange opgaver hver dag uden at føle et behov for mere information - vi gør som vi plejer. 
For at opleve et behov for mere information er vi nødt til at vide eller i det mindste fornemme, at der eksisterer noget relevant information "derude", som vi ikke kender og som vi måske kan bruge. Det er svært at vide om noget eksisterer inden vi aktivt går ud og søger efter det. Og hvis vi ikke finder noget, er det så fordi det ikke er der eller fordi vi ikke er gode nok til at søge, herunder at vi ikke har søgt det rigtige sted eller ikke havde adgang til informationen? 
 
Når man er kommet så vidt, at man er overbevist om der nok er noget "derude", som er værd at finde, kommer trin 2. Vi skal finde ud af hvor informationen er og hvordan vi finder den frem. I løbet af en ganske almindelig dag kommer de fleste nok i nærkontakt med 5-10 forskellige systemer med forskellige grænseflader, datamodeller og søgefunktioner. 
 
Der er lagt meget arbejde i trin 2 for at forbedre søgningen (også nogle gange kaldt pull teknologien), f.eks. med Unified Search et al. Det er min fornemmelse, at det er her de fleste lægger ressourcerne i at forbedre søgningen og det er det, der menes med det føromtalte indlæg. 
 
Det er så her jeg syntes, at det er meget mere spændende at kigge på trin 1, at kigge på hvordan behovet for søgning opstår. I dag opstår behovet mellem ørerne på den enkelte bruger og er derfor afhængig af den enkelte brugers viden. Intet menneske kan vide alting eller følge med i alt, i hvert fald ikke hvis de samtidig skal lave noget. 
 
Tanken er selvfølgelig; hvad nu hvis man lod systemerne følge med i "alting"? Eller måske endnu bedre, at lade de systemer, der skaber/publicerer information fortælle alle andre systemer om den nye information?
Push-teknologien har været brugt - dog i mindre omfang end pull teknologien - i gennem mange år. Vi får alle sammen tilsendt notifikationer/nyhedsbreve fra mange forskellige kilder. 
Men, og der er et men, uagtet at jeg fik et nyhedsbrev for 3 måneder siden som er relevant for det jeg sidder med i dag, er det ikke sikkert, at jeg kan huske indholdet af det nyhedsbrev (måske fordi jeg ikke fik læst det hele?) og at jeg kan koble det sammen med det jeg laver nu. 
 
Så næste tanke er; hvad nu hvis systemerne tog sig af, at huske "alting" og modtage alle nyheder og opdateringer kombineret med, at mit system analyserede det jeg sidder med og så kunne systemerne snakke sammen om hvorvidt der var noget information, som var relevant for mig i forhold til det jeg sidder med lige nu? 
 
Hvordan ville det kunne bruges? Lad os se på et par eksempler. 
 
Lad os forestille os, at mens jeg sidder og skriver denne tekst, leder mit system efter relevante tekster i baggrunden. Det kunne være nyheder om søgning fra onlinemedier, LinkedIn osv. Jeg vil så diskret blive gjort opmærksom på teksterne. 
Det kunne også være at systemet fandt ud af, at en af mine kollegaer også er i gang med at skrive om søgning og at det kunne være givtigt at snakke med vedkommende. 
 
Et andet eksempel kunne være en sagsbehandler, der sidder med en sag. Når sagsbehandleren åbner dokumenter eller skriver dem selv, kommer der løbende notifikationer omkring nyheder, lovgivning, gamle og nye sager, interne eksperter på området og hvad der ellers kan være fremmende for en hurtig, effektiv og konsekvent sagsbehandling. 
 
Alle de ovennævnte oplysninger er noget vi allerede kan finde manuelt i dag, det kræver bare en aktiv indsats plus tid og ressourcer, og det er der ikke altid plads til. 
 
 
Er det så muligt i dag at lave sådanne systemer? Der er svaret ja. Limen mellem diverse systemer hedder metadata og fælles strukturer. Teknikken til automatisk at skabe metadata ud fra en tekst, er til stede i dag og anvendes allerede flere steder. 
 
Det, der skal til, er en automatiseret og dynamisk analyse af den tekst brugeren sidder med lige nu, hvad enten den er skrevet af brugeren selv eller andre, kombineret med en automatiseret baggrundsøgning, som diskret viser resultatet til brugeren.
 
Lige så meget som søgning i dag er konge, tror jeg på at fremtiden tilhører den automatiserede pull teknologi, en slags metapull.

TaxonAnalyzer

Opmærkning
Tekstanalyse
OCR
Præjournalisering