InternetPopulære links

Alle de algoritmer "Yandex"

Som et resultat af den teknologiske udvikling er blevet gjort muligt at fremstille de nødvendige operationer uden at forlade huset. Nu kan du selv arbejde gennem netværket, og mange har allerede i lang tid har det godt på dette område. Den mest almindelige form for indtjening på internettet - Oprettelse af din egen hjemmeside eller blog. På grund af reklamer placeret på ejeren ressource kan tjene en god indkomst. denne ordning fungerer dog kun, når en hjemmeside eller blog findes på den første søgeside. Kort sagt, at antallet af besøgende på ressourcen afhænger af indkomstniveauet for ejeren.

Og den første ting du behøver at vide, før sådanne aktiviteter, - hvordan søgealgoritmer, især algoritmer "Yandex", den største søgemaskine Runet systemet.

Hvad er søgemaskine algoritmer?

Søgealgoritmer, de er også algoritmer "Yandex" repræsenterer en form for en matematisk formel, hvor brugeren anmodning er ukendt. Søg robot løser denne formel erstatter de ukendte forskellige værdier og vælger den mest hensigtsmæssige.

Hvis du forenkle definitionen, kan det udtrykkes således: søgealgoritme - et særligt program, der tager "problemet", i dette tilfælde, søgestrengen, og giver det en "løsning", der er, viser en liste over lokaliteter med de nødvendige brugeroplysninger.

Løsning "problemet", algoritmen ser på alle søgeord i siderne, sorterer dataene og genererer de relevante bruger søgeresultaterne. Takket være søgemaskinens algoritmer, kan robotter analysere indholdet af hver ressource. På grundlag af de modtagne oplysninger er bestemt af positionen af hjemmesiden i søgeresultaterne.

Hvad påvirker søgealgoritme?

Som allerede kan ses, søgeresultaterne i den samme forespørgsel i forskellige søgemaskiner er anderledes. Således algoritme "Yandex" er signifikant forskellig fra Google. For eksempel, for renheden af forsøget vil åbne to faner: en fra søgemaskinen "Yandex", den anden - fra Google. Hvis du indtaster i søgefeltet forespørgslen "Hvordan til at gå til Japan for permanent opholdstilladelse", vi kan se, at det første sted i "Yandex" er på andenpladsen i Google SERP.

søgemaskine algoritmer er under streng hemmelighed, de analyserer de samme parametre af webstedet, men nogle være mere opmærksomme på, og hvordan mindre - ingen kender. Selv SEO Optimizers stille dette spørgsmål.

Parametre med hvilke algoritmer arbejde

Som allerede nævnt, de søgealgoritmer "Yandex" er styret af bestemte parametre. Generelt kan de opdeles i to grupper. Nogle parametre er ansvarlige for det semantiske indhold af ressourcen, kan de blive kaldt "tekst". Andre - beskrive de tekniske karakteristika (design, plugins osv ...). Det kan groft beskrev dem som "teknik og funktionelt." For klarhedens skyld bør bryde alle parametre i grupper og placeres i tabellen.

"Tekst"

"Engineering og funktionelle"

Sprogligt

Alder hjemmeside, domænenavn, beliggenhed.

Populariteten af temaet, og mængden af tekst på hver side.

Antal sider og deres "vægt"

Forholdet mellem søgeord til det samlede antal tekst.

Tilstedeværelsen af stilistiske løsninger

Antallet af citationer og niveauet for unikt indhold

Antallet af anmodninger om et bestemt søgeord og hyppigheden af opdaterede oplysninger.

skrifttype størrelse og type

Tilstedeværelsen af multimediefiler, rammer, flash moduler og meta-tags

Antallet af referencer i teksten

Style af overskrifter, underpositioner og COP

Matchende nøgleord liste det bibliotek, hvor hjemmesiden er registreret.

Kommentarer i koden, den sidetype, tilstedeværelsen af double

ranking

Disse parametre spiller en central rolle i de ranking algoritmer. ranking algoritme - det er en måde, hvorpå du kan lære værdien af hver side. Kort sagt, hvis webstedet har en god præstation i alle disse parametre, så vil det være højere i søgeresultaterne.

Ranking algoritmer "Yandex" ændrer sig næsten hvert år. Den vigtigste af dem er opkaldt efter byerne. Navnet på det nye koncept for søgning begynder med det sidste bogstav i navnet på den foregående algoritme. Så er skabt søgemaskine algoritmer:

  • "Magadan" (2008).
  • "Find" (2008).
  • "Arzamas" (2009).
  • "Snezhinsk" (2009).
  • "Konakovo" (2010).
  • "Obninsk" (2010).
  • "Krasnodar" (2010).
  • "Reykjavik" (2011).
  • "Kaliningrad" (2012).
  • "Dublin" (2013).
  • "Nachalovo" (2014).
  • "Odessa" (2014).
  • "Amsterdam" (2015).
  • "Minusinsk" (2015).
  • "Kirov" (2015).

Udover dem, søgning tre algoritmer "Yandex" blev offentliggjort i de seneste to år. Der er også særlige algoritmer AGS-17 og AGS-30, den vigtigste opgave - at søge efter ressourcer, der ikke opfylder kravene. Kort sagt, disse algoritmer er på udkig efter steder med ikke-unikt indhold og masser af søgeord og derefter bruge dem til sanktioner. Og nu til en lidt hver algoritme.

Algoritmer af 2008-2011

I to år, "Yandex" har skabt søgning fire algoritme, som er kvalitativt forskellige fra tidligere, de første udgaver. I 2008 for første gang i søgningen rankings er begyndt at tage hensyn til det unikke i det indhold ( "Magadan"). For første gang det nye system blev indført, som tog hensyn til tilstedeværelsen af stop-ord ( "Find").

I 2009 har søgealgoritme, "Yandex" begyndt at tage højde for brugerens region, har en ny klassifikatør geozavisimyh og geonezavisimyh anmodninger. I høj grad forbedret regional formel for udvælgelse af reaktioner ( "Arzamas"). Har ændret sig dramatisk nummer udkom 19 nye regionale ranking formel og opdaterede kriterier geonezavisimogo ranking ( "Snezhinsk", "Konakovo").

I 2010 har søgemaskinen algoritmer "Yandex" aktivt udviklet nye formler for geozavisimyh geonezavisimyh og anmodninger ( "Obninsk", "Krasnodar"). 2011 markerede begyndelsen på skabelsen af personlig problem, stål tegnede sig for sproglige præferencer internetbrugere.

søgemaskine placeringer i 2012-2014

I 2012 udstedelsen personalisering ændret sig væsentligt stål hensyn til brugernes interesser på lang sigt, øget relevans af hyppigt besøgte websteder ( "Kaliningrad"). I 2013 algoritmen for "Yandex" har dygtigt tilpasser sig SERPs til interesser en bestemt bruger i løbet af en session, tage hensyn til de kortsigtede interesser ( "Dublin"). I 2014 har de regnskabsmæssige links til kommercielle forespørgsler i rækkefølgen af reaktioner ( "Nachalovo") blevet annulleret.

"Amsterdam", "Minusinsk", "Kirov"

SERP resultater begyndte at dukke op i nærheden af de oplysninger kort, når du holder markøren over et link ( "Amsterdam"). Den første opgave af algoritmen "Yandex" er blevet et fald i ranking af ressourcer, der har en masse SEO-referencer. En rig henvisning profil var den væsentligste årsag til tabet af positioner. Algoritme "Minusinsk" "Yandex" er begyndt masse skydning SEO links, lidt senere henvisning til faktorer vendte tilbage, men kun i Moskva-regionen.

I det tredje år randomisering algoritme blev gennemført relevante forespørgsler. Kort sagt, når der udsteder forespørgsler kan sorteres efter dato, popularitet, eller region ( "Kirov").

"Vladivostok" og "Palekh"

Algoritme "Vladivostok", blev lanceret i begyndelsen af 2016, begyndte jeg at overveje tilpasningsevne ressourcer til mobile enheder, øget udstedelse af mobil.

Særlig opmærksomhed bør være den algoritme "Palekh", som blev præsenteret i november. Dens essens er at sammenligne betydningen af spørgsmålet og sider ved hjælp af neurale netværk - af kunstig intelligens, som simulerer driften af den menneskelige hjerne. På grund af den øgede udstedelse af sjældne forespørgsler. I første omgang, denne algoritme arbejder udelukkende med sideoverskrifter, men som de siger skaberne, efterhånden lære at "forstå" og selve teksten. Algoritmen er som følger:

  • Systemet tager hensyn til statistikker og forespørgslen matchende header, og derved øge nøjagtigheden af søgeresultaterne.
  • Arbejder med sådanne overensstemmelser kaldes "semantisk vektor". Denne tilgang for at søge placeringer hjælper med at finde svar på de mest sjældne anmodninger. En algoritme, der har lært at forstå teksten, kan producere resultater, der ikke vil være et enkelt ord med en lignende anmodning, men ikke desto mindre er de i fuld overensstemmelse med hinanden i indhold.

Kort sagt, at "Yandex" forsøger at skabe en "smart" teknologi, der søger efter svar, ikke stole på nøgleord, og indholdet af selve teksten.

"Baden-Baden"

Den nye algoritme "Yandex", udgivet i marts 2017 var et gennembrud i søgemaskine placering. I søgeresultaterne på første omgang begyndte at trække sites med nyttige, klar og læsbar indhold. Den vigtigste opgave for denne algoritme - ikke giver brugeren den forklarende tekst til anmodningen, og de rigtige oplysninger.

Under arbejdet med "Baden-Baden" faldt i søgeresultaterne pereoptimizirovanoy ressourcer og oplysninger lav kvalitet. Eksperter er sikker på, at stillingen vil falde onlinebutikker, da der er for mange gentagne ord og beskrivelser af produkter, som næsten ikke skelnes. Men udviklerne af algoritmen tog højde for, at der er et bestemt tema, hvor den ene rod ord gentagelse er uundgåelig. Så hvad er de tekster underlagt sanktioner? Det er bedre at se på et eksempel.

Teksten passer ikke til søgealgoritme

Tidligere er de søgemaskinespiders bragt til positionen af de ressourcer, der var nøgleordene. Men teksterne på disse steder ser ofte som et sæt af forespørgsler, fortyndet "vand" lav kvalitet tekster. Og eksemplet nedenfor - bevis:

"Hvert år, Nike frigiver utallige varer til sport. Sko, sneakers, støvler, jakkesæt af Nike, Nike t-shirt, shorts, træningsdragt Nike, bukser, sved bukser af Nike, fodbolde - disse og andre produkter kan findes i enhver virksomhed butik. Kvinders Nike, mænds og børns samlinger formidle det vigtigste tema i brand. Nike tøj er enestående i, at hvert produkt følger stemningen i brand. "

Sådanne tekster er ikke godt, det er intet mere end en kasse med vigtige anmodninger. Her er til dem og bekæmper den nye algoritme. Indhold med lav kvalitet vil helt sikkert miste deres positioner. Der er tre kriterier for indhold af lav kvalitet:

  • Den manglende logik i teksten.
  • Et stort antal søgeord.
  • Tilstedeværelsen i teksten i unaturlige sætninger, der er opstået på grund af den direkte indtastning af søgeord.

Selvfølgelig har SEO-optimering ikke er blevet annulleret, de grundlæggende principper for søgemaskiner forbliver de samme. Det er bare en tilgang, hvor 1.000 tegn har 15-20 centrale sætninger har længe været forældet. Algoritme "Baden-Baden" fokuserer på kvaliteten af indholdet.

SERP

En vigtig plads i processen med at finde algoritme tager udstedelsen oplysninger. Udstedelse - en side med resultater, der opfylder en specifik anmodning. Udstedelse algoritme "Yandex" konstrueret på en sådan måde, at det kan beregne sandsynligheden for at finde de mest relevante svar og generere udstedelse af ti ressourcer. I det tilfælde, hvor et komplekst anmodning, spørgsmålet kan findes i 15 besvarelser.

Язык ресурса 1. ressource Sprog

Популярность темы и количество текста на каждой странице. 2. Populariteten af temaet, og mængden af tekst på hver side.

Соотношения ключевых слов к общему количеству текста. 3. Forholdet mellem søgeord til det samlede antal tekst.

Количество цитат и уровень уникальности контента 4. Antal citationer og niveauet for unikt indhold

Размер шрифта и его тип 5. skrifttype størrelse og type

Число ссылок в тексте 6. Antallet af henvisninger i teksten

Соответствие ключевых слов разделу каталога, где зарегистрирован сайт. 7. Matchende nøgleord liste det bibliotek, hvor hjemmesiden er registreret.

Faktisk fungerer det sådan her: hvis algoritmen er "fortrolig" med anmodningen, og om det er en yderst relevant respons, er udstedelsen af ti besvarelser dannet. I tilfælde af, at en søgemaskine ikke kan finde disse svar 15 links vil blive præsenteret i spørgsmålet.

Her faktisk, og alle de grundlæggende principper for søgemaskinens algoritmer. For at en hjemmeside føler jeg god til SERP har brug for at fylde den med høj kvalitet, informativ og letlæselig indhold.

Similar articles

 

 

 

 

Trending Now

 

 

 

 

Newest

Copyright © 2018 da.birmiss.com. Theme powered by WordPress.