Spring videre til hovedindholdet

Teknologien bag vores AI-baserede billedsøgning

Læs mere om teknologien bag AI-baseret billedsøgning

Opdateret for over et år siden

Vores AI-baserede billedsøgning er baseret på forskningen fra OpenAI og bruger GPT-lignende naturlig sprogbehandling kombineret med topmoderne visuel forståelse for at give en overlegen billedsøgningsoplevelse.

Vores AI-baserede billedsøgning er trænet til at analysere og finde billeder, der matcher din søgning. Vi bruger forud trænede modeller, der er optimeret på et stort datasæt, til præcis genkendelse og kategorisering af forskellige typer visuelt indhold.

Sådan fungerer det:

  1. Vi bruger forud trænede AI-modeller: Vi benytter AI-modeller, der allerede er trænet på store eksterne datasæt med billeder og tekster. Vi træner ikke modellerne yderligere baseret på dine billeder, hvilket sikrer en helt tryg tjeneste, der samtidig tager højde for privatlivets fred.

  2. Vi omdanner billederne til vektorer: Når du uploader billeder til Elgiganten Cloud, analyserer vores AI-model automatisk indholdet i hvert billede og opretter en vektorrepræsentation af hvert billede. En vektor er en matrix med hundredvis af tal, der ikke kan læses af mennesker, men som gør det muligt at sammenligne en vektor med en anden vektor.

  3. Vi omdanner søgeteksten til en vektor: Når du beskriver det billede, du leder efter, konverterer vi også søgetermen til en vektorrepræsentation.

  4. Vi sammenligner vektorerne: Nu beregner vi afstanden mellem søgevektoren, der blev oprettet ud fra din søgning, og billedvektorerne, der er knyttet til hvert billede, du har gemt hos os. Hvis afstanden mellem vektorerne er lille, betyder det, at vektorerne ligner hinanden. Så siger vi, at lighedsscoren mellem de to vektorer (søgningen og billedet) er høj.

  5. Vi viser dig resultatet: Vi sorterer billederne fra højest til lavest lighedsscore, så du kan se de mest præcise og relevante billeder baseret på din søgeforespørgsel.

  6. Vi gør det hurtigt: Fra du søger, indtil resultatet vises, tager det kun 0,3 sekunder. Ret cool, ikke sandt?

Nuværende begrænsninger for vores AI-baserede billedsøgning:

  • Vi har i øjeblikket ikke personlig ansigtsgenkendelse, hvilket betyder, at det ikke er muligt at mærke specifikke personer med navn. Modellen forstår og genkender dog ansigter, og ved hjælp af "Find lignende" værktøjet kan du finde billeder, der har de samme personer i dem. Muligheden for at mærke personer er noget, vi sandsynligvis vil tilføje i nær fremtid!

  • Lokationen, hvor billedet blev taget, og som kan udledes fra metadata, er i øjeblikket ikke integreret i søgningen, hvilket betyder, at geografiske søgninger er begrænsede. Modellen genkender dog kendte steder, byer og regioner, så søgninger som "Eiffeltårnet i Frankrig" eller "Taj Mahal" vil give meget præcise resultater. Den kan også forstå, om billeder er taget i New York, Paris eller London, da modellen er trænet på millioner af billeder.

  • For øjeblikket understøtter modellen ikke søgninger efter tidsperioder, her skal man i øjeblikket benytte tidslinjen.

  • Den er begrænset af det visuelle indhold i dine billeder, som måske ikke altid repræsenterer præcis det, du leder efter (hvis billedkvaliteten er dårlig, vinklen er mærkelig, lyset er dårligt osv.).

Besvarede dette dit spørgsmål?