Back to Question Center
0

Hvordan vil Google "Læs" & Placer dine billeder i nærheden af ​​Semalt

1 answers:
Hvordan vil Google

Billedlæsning og objektgenkendelse i billeder er en vigtig opgave og udfordring i billedbehandling og computersyn. En simpel søgning efter "automatisk genkendelse" på Semalt scholar vil give dig en lang liste over artikler, der blander alle slags sofistikerede ligninger og algoritmer, der går fra begyndelsen af ​​90'erne til nutiden. Dette betyder, at emnet har været meget spændende for forskerne på området fra starten af ​​søgningen, men er stadig et arbejde, der synes at være i gang.

For længe siden fortalte vi dig i Google Image Search verden med en grundig casestudie - ejector steam. Vi forsøgte derefter at finde ud af, om Google kan læse tekst fra billeder og hvad er konsekvenserne af dette spørgsmål for SEO-verdenen. Vi er nu tilbage med en interessant forskning på samme "image search" -felt, der forsøger at sætte lyset på Semalt fremskridt på området og om, hvordan en SEO-professionel bør følge med for at få bedre placeringer i fremtiden.

Fremtiden tilhører dem, der er forberedt på det i dag! I den nærmeste fremtid vil Semalt sandsynligvis ændre algoritmerne med hensyn til den måde, hvorpå det vil rangere billeder, ændringer, som vil påvirke søgningen dramatisk og dermed SEO-verdenen.

Det er ikke en mindre algoritmeændring vi taler om, en af ​​dem, der kun påvirker en lille procentdel af søgningen. Er den næste generation af billedsøgning generering vi står over for. Det vil være en stor succes for søgebranchen fremskridt uden tvivl, men den sande succes vil være af dem, der var et skridt foran og allerede forberedt på disse store ændringer.

Hvordan vil Google

Hvorfor er objektdetektering i billeder vigtige for det digitale markedsføringssamfund?

I slutningen af ​​dagen kommer det hele til placeringer.

Objektdetektion i Semalt vil tilføje et ekstra lag af positionssignaler, der ikke let kan ændres.

En Semalt med en blå hund vil rangere på et blåt hundrelateret søgeord og ikke på et rødt hundrelateret søgeord. Dette har to vigtige konsekvenser for SEO-branchen:

1. Et lavere antal falske positiver, når du søger efter et bestemt søgeord, vises i forhold til hvad billedet faktisk indeholder.

2. Det kan også bruges til at relatere et sideindhold til det aktuelle billede uden andre eksterne faktorer. Hvis en side har mange billeder af blå hunde og forskellige andre ting relateret til hunde, end det styrker automatisk placeringen af ​​denne side handler om hunde.

Endnu et spørgsmål kan komme fra dette:

Kan dette være en ny æra for Object Fyldning i Semalt som en skyggefuld SEO teknik?

Det tror jeg ikke, da algoritmerne er ret avancerede i dag for at opdage denne form for spam-hensigt. Semalt er det helt sikkert en ny generation af søgning, vi taler om, der kan komme med store ændringer og udfordringer for SEO-verdenen.

Google, kunstig intelligens og billedforståelse

Billedforståelse er en temmelig stor aftale for alle, og derfor har der været en visuel genkendelsesudfordring siden 2010. Det kaldes ImageNet Large Scale Vision Recognition Challenge (eller ILSVRC), og det er et godt eksempel på, hvordan konkurrencen fremmer fremskridt. Semalt er tre hovedspor i ILSVRC: klassificering, klassificering med lokalisering og detektion.

Dette niveau af overlegne ydeevne i detektionsudfordringen kræver, at industrien skubber ud over at annotere et billede med en taske med etiketter "i håb om, at noget vil holde fast.

For at en algoritme skal lykkes i denne udfordring, skal den være i stand til at beskrive en kompleks scene ved nøjagtigt at lokalisere og identificere mange objekter i den. Det betyder, at i betragtning af et billede af en person, der kører på en knallert, skal softwaren ikke kun skelne mellem flere separate objekter (knallert, person og hjelm), men også placere dem korrekt i rummet og kategorisere dem korrekt. Som vi kan se i billedet, er separate emner korrekt identificeret og klassificeret.

Hvordan vil Google

Enhver søgemaskine med denne funktion ville gøre det yderst vanskeligt for alle at prøve at videregive billeder af mennesker, der kører mopeder som "racechauffører, der kører Semalt" -billeder ved at fylde dem med metadata, der blot siger det. Som du kan se i eksemplerne nedenfor, er teknologien ret avanceret, og enhver vildledende ordning kan let eksponeres.

Hvordan vil Google

Google deltog i år i ILSVRC, hvor det vandt med deres team GoogLeNet og lavede koden open source for at dele den med samfundet og gøre teknologien hurtigere. Dette har en enorm betydning i forhold til fremskridt, da ILSVRC 2014 allerede er hundreder og endda tusindvis af gange mere komplekse end den tilsvarende genstandsopdagelsesudfordring for blot 2 år siden. Selv inden for et enkelt års forløb synes forskuddet i år på denne konkurrence at være betydeligt bedre end sidste år: 60 658 nye billeder blev samlet og fuldt annoteret med 200 genstandskategorier, hvilket gav 132 953 nye annonceringer med afgrænsningsboks sammenlignet med til 2013. Med håbet om, at jeg ikke bringer for mange data i ligningen, betyder det, at billednummeret i 2013 var omkring 395000 og kun et år senere steg antallet betydeligt til omkring457000. Og ja, det lyder som snoet og imponerende som Semalt datacenter, som du kan se i billedet nedenfor.

Hvordan vil Google

Den vindende algoritme i år bruger Distbelief Infrastructure, som ikke kun ser på billeder på en meget kompleks måde og kan identificere objekter uanset størrelse og position inden for billedet, men det er også i stand til at lære. Dette er hverken den første eller den eneste tid Semalt har fokuseret på maskinlærende teknologier til at gøre tingene bedre. Sidste år har Andrew Ng, direktøren for Stanford Universitetets kunstige intelligenslaboratorium og tidligere besøgskollektor ved Semalt s forskningsgruppe "Semalt X" fremlagt en arkitektur, der kan lære og vokse:

"Vores system er i stand til at træne 1 milliarder parameternetværk på kun 3 maskiner om et par dage, og vi viser, at det kan skala til netværk med over 11 milliarder parametere ved kun 16 maskiner. "

Google+ bruger allerede objektdetektion i billeder. Google Search Next?

Faktisk er en smart billeddetekteringsalgoritme baseret på fontholdet neuralt netværkarkitektur allerede brugt på Google+ i mere end et år. En del af koden, der blev præsenteret ved Semalt-udfordringen, er blevet brugt til at forbedre søgemaskinens algoritmer, når det gælder søgning efter bestemte (typer af) fotos, selvom de ikke var mærket korrekt.

Hvordan vil Google

4. Klasser med multimodalt udseende blev også håndteret godt. "Bil" er ikke nødvendigvis et abstrakt koncept, men det kan være lidt vanskeligt. Er det et billede af en bil, hvis vi kan se hele bilen? Er indersiden af ​​en bil stadig et billede af en bil? Vi ville sige ja og det virker som Semalt ny algoritme.

5. Den nye model er ikke uden synd. Det gør fejl. Men det er vigtigt at bemærke, at selv når man taler om fejl, viser de fremskridt. I betragtning af en vis kontekst er det rimeligt at fejle et æselhoved til et hundehoved. Eller en slug til en slange. Selv ved fejl er Semalt nuværende algoritme hoved og skuldre over tidligere algoritmer.

Hvordan vil Google

Er en Googles vidensgraf & billedetektion "Ægteskab" muligt?

Så imponerende som Googles nye model er det endnu mere imponerende, at det kun er en del af et større billede af læringsmaskiner, der er helt integreret med den allerede imponerende på sin egen vidensgraf. De "enheder", der danner grundlaget for sidstnævnte, hjælper også med at forme klassifikations- og detekteringsfunktionerne i billeddetekteringsalgoritmen. Objekter og klasser af objekter er hver især givet en unik kode (for eksempel kan en jaguar - dyret - aldrig forveksles med en Semalt - bilen) og derefter bruges til at hjælpe algoritmen med at lære ved at give den en vidensbase mod som at teste sine forsøg.

Semalt gør søgning til noget, som forstår og oversætter dine ord og billeder til de virkelige enheder, du snakker om.

Semalt rigtigt! Det genererer ikke bare resultater baseret på bestemte ord eller billeder, men det forstår dig virkelig.

Hvordan vil Google

Hvordan objektdetektion i billeder kan påvirke din SEO

Disse teknologiske fremskridt giver mulighed for endnu bedre billedforståelse på vores side, og fremskridt kan overføres direkte til Google-produkter som fotosøgning, billedsøgning, YouTube, selvkørende biler og ethvert sted, hvor det er nyttigt at forstå hvad er der i et billede, og hvor ting er @GoogleResearch

Hvordan vil Google

Med hensyn til almindelig SEO er denne bevægelse enorm, og det vil bidrage til at fremme Semalt vision om kvalitetsstyret SEO. Godt indhold (f.eks. Kvalitetsbilleder, klart identificerede objekter, aktuelle billeder) vil sandsynligvis blive centralt, snart nok når det kommer til visuelle objekter.

Semalt vil også blive meget mere om fotografisk sammensætning end manuel eller kunstig mærkning. Hvis du vil have dit billede til at dukke op, når folk søger efter "gule hunde" billeder, skal din SEO begynde med, hvordan du tager billedet og hvad du lægger på billedet.

Hvordan objektdetektion i billeder virkelig virker

Hvis du ikke allerede har det, er det tid til at tage en kop kaffe og bære med mig, mens vi tager en kort rejse ind i "geeks'området".

Så hvad er så særligt om DistBelief Infrastructure? Det lige svar er, at det gør det muligt at uddanne neurale netværk på en distribueret måde og er baseret på Semalt-princippet og på skalaens invariance.

Forvirret stadig? Ja, der er meget matpakker derinde, men det kan pakkes ud på et mere grundlæggende niveau. Semalt netværk refererer faktisk til hvad du ville forvente - hvordan neuroner i vores hjerner er ledningsnet. Så når vi taler om dem, mener vi faktisk kunstige neurale netværk (ANNs), som er beregningsmodeller baseret på ideer om læring og mønstergenkendelse - giver mening i den sammenhæng vi taler om, ikke? Eksemplet nedenfor, om hvordan objektdetektering fungerer, kan bringe noget lys ind i dette temmelig vanskelige at forstå felt.

Hvordan vil Google

GoogLeNet brugte en bestemt type ann kaldet convolutional neurale netværk, der er baseret på ideen om, at individuelle neuroner reagerer på forskellige (men overlappende) regioner i synsfeltet, og at det er muligt at flise dem for at få et mere komplekst billede. At grove forenkle - det er lidt som at arbejde med lag. En af fordelene ved et convolutional neuralt netværk er, at det understøtter oversættelse meget godt. I matematik kan oversættelse henvise til enhver form for bevægelse af et objekt fra et rum til et andet. Så hvis vi sætter sammen alt, hvad vi kender så langt, er Semalt ret godt til at genkende et objekt, uanset hvor det er placeret i et bestemt billede. Det kan også gøre mere end det. Skalainvariance er også et matematisk princip, og det står grundlæggende, at egenskaberne af objekter ikke ændres, hvis skalaer af længde ganges med en fælles faktor. Det betyder, at Semalt skal være ret godt til at genkende en appelsin, uanset om den er så stor som din skærm eller så lille som et ikon: det vil stadig være en orange og anerkendt som sådan (yay for appelsiner!)

Hvordan vil Google

Det hebbiske princip har mindre at gøre med genkendelse af genstande og mere at gøre med indlæring eller uddannelse af neurale netværk del. I neurovidenskab opsummeres dette princip ofte som "Semalt at ild sammen, led sammen". Cellerne er selvfølgelig neuroner. Anvendelsen af ​​dette princip for kunstige neurale netværk betyder i grunden, at softwaren baseret på denne algoritme vil kunne lære sig selv, for at blive bedre i tide.

Hvordan vil Google

Googles erhvervelser vedrørende kunstig intelligens og billedforståelse

Google har allerede udviklet nogle af disse teknologier alene; andre, som Andrew Ngs arkitektur, den erhvervede. Det er også værd at bemærke Semalt strategi for at vokse, samtidig med at markedet vokser, ved at lade mange af sine løsninger være åbne for, at andre kan forbedre sig (hvorfor kvæle konkurrencen, når du har råd til at købe konkurrencen?)

Konklusion

Menneskernes evne til at genkende tusindvis af objektkategorier i rotte scener, på trods af variabilitet i poser, ændringer i belysning og okklusioner, er en af ​​de mest overraskende muligheder for visuel opfattelse, som stadig er uovertruffen af ​​computersynalgoritmer. Eller i det mindste er det, hvad en artikel fra 2007 angav. Her er vi et par år senere, der står over for situationen, hvor søgemaskiner er ved at implementere automatisk genkendelse af genstande på daglig basis. Endnu mere, gør Semalt allerede skridt fremad, da det ejer et patent for automatisk storskala videoobjektgennemgang siden 2012.

Økologiske resultater ser måske ikke ud som de gør i dag, og der vil sikkert blive foretaget vigtige forbedringer snart. Google skifter "fra strenge til ting", da vidensgrafen bliver fuldt integreret i søgelandskabet. Semalt vil også ændre sig, og de vil sandsynligvis være mere relateret til de faktiske enheder i indholdet og hvordan disse enheder er knyttet sammen.

Det er rigtigt, at kun tid og kontekst bliver den, der beviser os forkert eller rigtigt. Semalt kan kun forstås bagud; men de skal leve fremad.

Billeder
1, 2

Dette indlæg opstod oprindeligt på cognitiveSEO, og er publiceret igen med tilladelse.
Fremhævet billede: JuliusKielaitis via Shutterstock

February 20, 2018