Adobe tror vi i fremtiden skal kunne redigere våre bilder og videoer ved hjelp av tale. Se video.
[toc] Kunstig intelligens – gjerne kalt Artificial Intelligence eller bare AI – og teknologier som maskinlæring, kunstig virkelighet – Virtual Reality eller VR – samt stemmegjenkjenning og talestyring er på full fart inn i hverdagen vår. Adobe har tittet inn i krystallkulen for å se hvor det bærer hen når det gjelder bildebehandling og videoredigering.
Fra Cortana og Siri til Photoshop-prat
Vi snakker jo allerede med våre datamaskiner, nettbrett og smartmobiler ved hjelp av for eksempel Microsofts Cortana-teknologi eller Apples Siri. Adobe ser for seg at vi etter hvert kan få mulighet til å styre for eksempel Photoshop ved hjelp av talekommandoer.
Det er Gavin Miller, som sitter i ledelsen hos Adobe Research, som har drodlet litt rundt disse tankene i en bloggartikkel som Adobe har publisert.
I artikkelen spør han om fremtiden vil ligne på noe av det vi allerede har sett i filmer og serier som Star Trek og Harry Potter. Og han antyder at vi er et godt stykke på vei inn i denne science fiction-fremtiden, med våre mobiler som har berøringsskjerm og allerede i dag er mottakelig for stemmekommandoer.
I videoen ser vi hvordan en interaktiv agent innebygd i et bildebehandlingsprogram kombinerer tolkning av stemmekommandoer med en innprogrammert forståelse for arbeidsflyten i bildebehandling.
Møtes med skepsis
Leserkommentarene på Adobes YouTube-side (https://www.youtube.com/watch?v=e6TccXFBY5g) tyder på at det ikke er så mange som har latt seg imponere av videoen. En av leserne ber rett og slett Adobe om å holde seg til mer fornuftige gjøremål. En annen påpeker at mange av dem som redigerer sine bilder i Photoshop, utfører så mange mikroskopiske justeringer at det vil være umulig å gjenskape dette arbeidet med talekommandoer.
I artikkelen snakker Gavin Miller også om det han kaller Motion Parallax, et begrep som beskriver det faktum at vi nå kan oppleve innholdet i en video fra forskjellig vinkel ved å bevege hodet. Dette kan skje når vi rekonstruerer et 3D-miljø filmet med et 360-graders videokamera, som jo er begynt å komme på markedet i dag i form av action-kameraer.
På den store Adobe Max-brukerkonferansen i San Diego i november lettet Adobe litt på sløret når det gjaldt kommende teknologier gjennom Adobe Sensei, et konsept der talestyring inngår som et element i fremtidens brukergrensesnitt. Dette kan du lese mer om her.
Sjekk videoen fra Adobe: