Annonser

Kameranytt

Redigér bildene dine med stemmen

Adobe
PHOTOSHOP-PRAT: Å ta en Photoshop-prat kan komme til å bety noe annet i fremtiden enn en diskusjon om aktuelle Photoshop-spørsmål. Glimt fra Adobes video. (Ill.: Adobe)

Adobe tror vi i fremtiden skal kunne redigere våre bilder og videoer ved hjelp av tale. Se video.

Kunstig intelligens – gjerne kalt Artificial Intelligence eller bare AI – og teknologier som maskinlæring, kunstig virkelighet – Virtual Reality eller VR – samt stemmegjenkjenning og talestyring er på full fart inn i hverdagen vår. Adobe har tittet inn i krystallkulen for å se hvor det bærer hen når det gjelder bildebehandling og videoredigering.

Fra Cortana og Siri til Photoshop-prat

Vi snakker jo allerede med våre datamaskiner, nettbrett og smartmobiler ved hjelp av for eksempel Microsofts Cortana-teknologi eller Apples Siri. Adobe ser for seg at vi etter hvert kan få mulighet til å styre for eksempel Photoshop ved hjelp av talekommandoer.

Det er Gavin Miller, som sitter i ledelsen hos Adobe Research, som har drodlet litt rundt disse tankene i en bloggartikkel som Adobe har publisert.

I artikkelen spør han om fremtiden vil ligne på noe av det vi allerede har sett i filmer og serier som Star Trek og Harry Potter. Og han antyder at vi er et godt stykke på vei inn i denne science fiction-fremtiden, med våre mobiler som har berøringsskjerm og allerede i dag er mottakelig for stemmekommandoer.

I videoen ser vi hvordan en interaktiv agent innebygd i et bildebehandlingsprogram kombinerer tolkning av stemmekommandoer med en innprogrammert forståelse for arbeidsflyten i bildebehandling.

Møtes med skepsis

Leserkommentarene på Adobes YouTube-side (https://www.youtube.com/watch?v=e6TccXFBY5g) tyder på at det ikke er så mange som har latt seg imponere av videoen. En av leserne ber rett og slett Adobe om å holde seg til mer fornuftige gjøremål. En annen påpeker at mange av dem som redigerer sine bilder i Photoshop, utfører så mange mikroskopiske justeringer at det vil være umulig å gjenskape dette arbeidet med talekommandoer.

I artikkelen snakker Gavin Miller også om det han kaller Motion Parallax, et begrep som beskriver det faktum at vi nå kan oppleve innholdet i en video fra forskjellig vinkel ved å bevege hodet. Dette kan skje når vi rekonstruerer et 3D-miljø filmet med et 360-graders videokamera, som jo er begynt å komme på markedet i dag i form av action-kameraer.

På den store Adobe Max-brukerkonferansen i San Diego i november lettet Adobe litt på sløret når det gjaldt kommende teknologier gjennom Adobe Sensei, et konsept der talestyring inngår som et element i fremtidens brukergrensesnitt. Dette kan du lese mer om her.

Sjekk videoen fra Adobe:

Annonser

Legg igjen en kommentar

%d bloggere liker dette: