Blog

  • 0 koffiebekers laten bedrukken

    • MKB
    • Door Administrator
    • 07-12-2017
    3.00 van 1 stemmen

    koffiebekers laten bedrukken   Als ondernemer ben je waarschijnlijk gek op koffie en voor jouw medewerkers zal dit ook zo gelden. Niet voor niets wordt er in Nederland meer koffie gedronken dan in ieder ander land. De meeste organisaties hebben een uitgebreide koffiemachine en er worden daardoor ook allerlei andere producten aangeboden. Denk aan thee, water, soep of zelfs ijskoffie. Vaak worden dit soort producten in een herkenbaar koffiebekertje uitgeschonken. Maar wat is nu leuker dan een koffiebeker die geheel is opgemaakt in de huisstijl van jullie organisatie? In dit artikel kun je een aantal tips rondom het laten bedrukken en bestellen van koffiebekers vinden. Zo weet je precies wat je moet doen wanneer je koffiebekers gaat bestellen! Tips rondom de bedrukking van koffiebekers Wanneer je koffiebekers wilt laten bedrukken is het verstandig om dit met kartonnen bekers te doen. Op deze manier komt de bedrukking het best uit en zal grafisch werk er professioneel uitzien. Wanneer je koffiebekers laat bedrukken is het belangrijk om te kiezen voor passende maatvoeringen. Vaak wordt er gekozen voor small, medium en large. Op basis van de capaciteit van een koffiebeker kun je een koffiemachine instellen en passende producten schenken. Indien je dit door een professionele leverancier laat doen wordt er hulp geboden bij het creëren van een passend ontwerp. Zo weet je zeker dat de kleuren straks kloppen en de positie van bijvoorbeeld een bedrijfslogo correct is. Ook kan er worden gekeken naar de bestandstypes zoals deze worden aangeleverd, wanneer dit volledig in orde is weet je zeker dat het eindresultaat goed wordt. Wel zo prettig wanneer je veel koffiebekers tegelijk bestelt! Koffiebekers met bedrukking bestellen Als er koffiebekers besteld worden is het belangrijk om te letten op eventuele staffelkortingen. Gaat het om zeer grote aantallen? Dan kan er het best een offerte aangevraagd worden. Omdat machines ingesteld dienen te worden heeft iedere leverancier te maken met opstartkosten. Dit zie je terug in de verkoopprijs! Wil je ondernemend bezig zijn? Bestel dan minder maatvoeringen en bijvoorbeeld de gehele jaarvoorraad. Zo kun je een groot aantal van één variant bestellen en is de kostprijs per koffiebeker in veel gevallen lager dan die van de koffieleverancier.

  • 0 Bedrijf en consument overgeleverd aan de SEO-goden

    0.00 van 0 stemmen

    Essay over de noodzaak tot verwetenschappelijking van SEO Er is een toenemende noodzaak het vakgebied van de Search Engine Optimization (SEO) te verwetenschappelijken. Zowel de aanbieders als de afnemers van content zijn steeds afhankelijker geworden van de keuzes die zoekmachinebedrijven maken bij de volgordebepaling van de gratis, organische zoekresultaten.  Google neemt, in ieder geval in onze Westerse wereld, het leeuwendeel van de zoekopdrachten voor haar rekening. Zowel aanbieders als afnemers moeten Google kunnen vertrouwen bij deze volgordebepaling. De aanbieders van goede content moeten er op kunnen vertrouwen dat Google er alles aan doet om die zichtbaar te maken voor de doelgroep. De afnemers van de content ( = zoekers = consumenten) moeten er vanuit kunnen gaan dat de hoogste zoekresultaten daadwerkelijk de allerbeste zijn. Maar wat is ‘goede content’? En wat zijn ‘de allerbeste zoekresultaten’? Hoe bepaalt Google dat? Omdat onze afhankelijkheid, in zowel commerciële als niet-commerciële zin, zo groot is geworden (en ongetwijfeld nog veel groter zál worden), ligt hier een taak voor de wetenschap. Die moet aan één kant bedrijven houvast geven bij de informatievergaring op het gebied van SEO en aan de andere kant grip proberen te houden, of eigenlijk krijgen, op de stormachtige technologische ontwikkeling van zoekmachine-algoritmen. Via dit essay beoog ik een aanzet te geven voor de (discussie over de) verwetenschappelijking van SEO.  Dit artikel is geschreven voor wetenschappers (die interesse hebben het onderwerp op te pakken), SEO specialisten (die meer vaste grond onder de voeten zoeken bij hun werkzaamheden), gefrustreerde bedrijven (die nu wel eens willen weten hoe SEO specialisten hun kennis verzamelen) en gebruikers van Google (die meer willen weten over dat vakje dat ze dagelijks met woorden voeden, en de resultaten die ze vervolgens blind –moeten kunnen- vertrouwen). Reacties worden gewaardeerd!   U zegt dit, en zij zegt dat? Wat is waar? Het vakgebied van de SEO wordt eigenlijk in zijn geheel overgelaten aan SEO-professionals die zich zelf aanduiden met begrippen als SEO-specialist, SEO-expert. De schrijver van dit essay is er daar één van. Er wordt heel veel gezegd en gesteld door deze SEO professionals. Maar wat is waar? Afgelopen week kreeg ik opnieuw de zeer terechte vraag: “Wie moet ik nou geloven? U of die andere seo specialist? U zegt dit, en zij zegt dat? Wat is waar?”. Om precies dergelijke vragen te kunnen beantwoorden meen ik dat het SEO-vakgebied veel wetenschappelijker gefundeerd zou moeten worden, dan nu het geval is. Het vak wordt niet of nauwelijks op een serieuze manier aan universiteiten en HBO’s gedoceerd. Mijn boek wordt in Leuven gebruikt, en af en toe worden mijn collega’s of ik ergens uitgenodigd voor een gastcollege, maar daar blijft het meestal bij.   Waar baseren SEO professionals hun kennis eigenlijk op? Laat ik mijn antwoord beginnen met de beschrijving van een praktijksituatie. Een eigenaar van een webshop komt bij me voor SEO-advies en vertelt dat hij gelezen heeft dat het gunstig is voor de organische rankings (de gratis rangschikkingen) in Google als de site in kwestie ook meedraait met de betaalde AdWords-diensten van Google. Mijn antwoord hierop zou kunnen zijn (en is het ook): “Nee hoor, het hebben van AdWords-advertenties heeft geen voordeel voor je organische rankings”. “Ok, bedankt, dat weet ik dan ook weer”, zegt de webshopeigenaar, waarbij hij mijn SEO-kennis dan dus blijkbaar voor absoluut waar neemt. Maar is dat terecht? Veel beter zou het zijn als de webshopeigenaar zou zeggen: “Ok, bedankt, interessant, maar waar baseer je dit antwoord op?”. Bij zo’n wedervraag krijg je een gesprek, en bij zo’n gesprek moet je als SEO professional kunnen teruggrijpen op via wetenschappelijke methodieken verzamelde kennis. Alleen een wetenschappelijke onderbouwing van mijn antwoord op zijn vraag, zou de webshopeigenaar tevreden moeten stellen.   Opdoen van SEO-kennis via publicaties van Google zelf Vaak wordt gesteld dat er geen wetenschap van het vakgebied mogelijk is, door het simpele feit dat de rankingalgoritmen (een algoritme is een geprogrammeerde formule, in dit geval de formule die de rangschikking van zoekresultaten definieert) van Google geheim zijn. Google beschouwt het rankingalgoritme als bedrijfsgeheim. Desondanks publiceren ze zelf toch ook regelmatig over de factoren die de rankings bepalen. Een voorbeeld hiervan is de publicatie op hun Google Webmaster Central Blog, waar ze eind 2014 stelden dat de mobielvriendelijkheid van websites een rankingcriterium zou kunnen gaan worden: We see these labels as a first step in helping mobile users to have a better mobile web experience. We are also experimenting with using the mobile-friendly criteria as a ranking signal.Google Of recent nog, deed Google een boekje open over de wijze waarop de volgorde bij de lokale zoekresultaten (dat zijn de bedrijfsvermeldingen bij de maps) wordt bepaald: Lokale resultaten worden voornamelijk gebaseerd op relevantie, afstand en prominentie. Deze factoren worden gecombineerd om de beste overeenkomst voor uw zoekopdracht te vinden. De algoritmen van Google kunnen bijvoorbeeld bepalen dat een bedrijf dat verder bij u uit de buurt ligt, waarschijnlijk eerder heeft wat u zoekt dan een bedrijf vlakbij en daardoor een hogere positie krijgt in de zoekresultaten.Google Via de zogenaamde “Google Webmaster Central  office hours hangouts” kunnen we zelfs ook direct vragen stellen aan hun “search specialisten”. Google blijkt niet vaak bereid ons een kijkje te verschaffen in de dieptes van het algoritme. Hun antwoorden en toelichtingen zijn of heel algemeen of betreffen vragen die op de één of andere manier te maken hebben met hun ‘richtlijnen’.  Dan doel ik niet alleen op hun Richtlijnen voor webmasters (die iedere web professional uit het hoofd zou moeten kennen), maar ook op de technische mogelijkheden die Google ons biedt om de informatie op onze websites voor hun te verduidelijken. Zo heeft Google een instructie gedefinieerd die we in de meta-sectie van de pagina kunnen opnemen om de scoringskracht van pagina’s met identieke content te bundelen in één pagina. Dat is de rel=canonical. Maar zo zijn er ook nog een rel=nofollow, rel=next, rel=prev, etc. Van dergelijke zaken weten we behoorlijk precies hoe ze werken, omdat Google die om heldere redenen heeft geïntroduceerd. Van weer andere instructies, die niet door Google zelf zijn geïntroduceerd maar wel veel gebruikt worden, is Google soms ook heel duidelijk over hun interpretatie daarvan. Een voorbeeld hiervan zijn de instructies om de betekenis of semantiek van de informatie op onze pagina’s aan Google te verhelderen. Dat gebeurt op basis van een vocabulair zoals dat vanuit de schema.org gemeenschap is gedefinieerd, en geïmplementeerd kan worden via JSON-LD markup. Soms ook springt Google in de SEO-arena als SEO’s theorieën en technieken verkopen, die helemaal niet correct blijken. Een voorbeeld daarvan is de PageRank-sculptingtechniek. Het is alweer zeven jaar geleden dat Google overtuigend heeft toegelicht dat die techniek niet werkt, maar ik zie hem nog aan de lopende band opduiken in websites van klanten. Een andere tegenwerping van de stelling dat er, door het feit dat het Google algoritme geheim is, geen wetenschap mogelijk zou zijn, is de simpele constatering dat het algoritme van de natuur ook niet bekend is en we de ‘natuurkunde’ toch als een bij uitstek wetenschappelijk discipline kennen. Maar hoe voeren die natuurkundigen (en wiskundigen, biologen, archeologen, filosofen, zelfs –met wat minder succes, blijkt de laatste tijd…- psychologen) hun onderzoeken dan eigenlijk uit? En zijn die methoden dan ook toepasbaar voor SEO? Laten we even terugkeren naar de fundamenten van wetenschappelijke waarheidsvinding.   SEO kennis verzamelen via empirisch onderzoek Als het onderzoeksobject een black box is (en dat ís het algoritme van Google, vanuit ons perpsectief), dan kunnen we door testen uit te voeren kijken hoe het object zich gedraagt. Als we de appel losknippen van de boom, valt die zonder uitzondering naar beneden. Newton verklaarde dit uit de aanname dat massa’s elkaar aantrekken (de aarde trekt aan de appel en de appel trekt aan de aarde), maar Einstein had een paar eeuwen later de briljante ingeving dat massa de ruimte kromt, en de appel dus om dié reden richting de aarde beweegt. Via allerlei verfijnde experimenten kon aangetoond worden dat Einstein’s theorie beter aansloot bij de werkelijkheid dan die van Newton. Door experimenten uit te voeren, kunnen we dus vaststellen wie er (vooralsnog) gelijk lijkt te hebben. Binnen het SEO-vakgebied gebeurt het niet anders: ook wij kunnen bijvoorbeeld de Meta Title van onze homepage eens uitbreiden met een interessante zoekterm en kijken wat de effecten zijn op de ranking van de pagina op die zoekterm. U zult begrijpen dat de uitkomst van één zo’n experiment nog niets zegt: misschien is de verbetering van de ranking toeval. Misschien heeft Google op dezelfde dag van het experiment een update gedaan waarbij een heel ander aspect opeens zwaarder wordt gewogen en de pagina om dié reden hoger (of lager) is gaan scoren. Die mogelijkheid mag je nooit uitvlakken, want er zijn vele factoren in het spel. Google zelf stelt dat er 200+ rankingfactoren zijn, die zelf ook weer uit vele deelfactoren bestaan. Dan kom je al snel op duizenden factoren. Bij goede experimenten wordt dus onderzoek gedaan met behulp van grote hoeveelheden tests. Moz.com, een commercieel onderzoeksbureau hoog aan de westkust van de VS, doet veel van dergelijk –wat we noemen empirisch– onderzoek aan Google’s zoekresultaten. Een leuk voorbeeld van een recent onderzoek door Moz.com is er één waarbij zij wereldwijd mensen hebben gevraagd om –gegeven een bepaalde zoekterm- op een heel specifiek zoekresultaat te gaan klikken. Daaruit bleek dat dat specifieke zoekresultaat opeens ging stijgen in de rankings. Nadat men gestopt was met klikken daalde het zoekresultaat weer. Hieruit concludeerde men dat de doorklikratio (CTR in het Engels) een rankingfactor is. Of iets genuanceerder, in hun woorden: The more your pages beat the expected organic CTR for a given position, the more likely you are to appear in prominent organic positions. Moz Maar hoe zeker weten we nu dat CTR inderdaad een rankingfactor is? Het is in ieder geval nog niet door Google bevestigd. Misschien was de toename van het bezoek aan de betreffende site wel de reden (ook al zegt Google dat hoeveelheid bezoek op de site geen rankingcriterium is). U ziet: het is altijd een genuanceerd verhaal. We komen er niet met snelle tips&tricks.   Meten is weten! Hoewel? Door te meten hoe de black box zich gedraagt, d.w.z. hoe de Output wordt als gevolg van variatie in de Input, kunnen we de samenhang tussen de twee vaststellen, kunnen we dus eigenlijk de formulebepalen. Deze samenhang noemen we de correlatie. Correlatie zegt echter niets over de inhoud van de black box. We weten alleen wát de black box, in termen van Input/Output, doet. Binnen het SEO-onderzoek is het ranking algoritme van Google de black box. We weten dus niet precies welke factoren worden gebruikt, maar zien wel het resultaat ervan, namelijk de zoekresultaten. Door de zoekmachine te voeden met vele zoektermen en per zoekresultaat te kijken of de zoekterm bijvoorbeeld in de Meta-Title van het zoekresultaat aanwezig is, kunnen we de correlatie bepalen tussen het aanwezig zijn van de zoekterm in de Meta-Title en het scorend vermogen van de betreffende pagina op die zoekterm.   Maar: correlatie is niet hetzelfde als causatie! David Hume wees driehonderd jaar geleden al op het feit dat correlatie niet hetzelfde is als causatie. Met een causaal verband wordt een oorzakelijkverband bedoeld. We weten dus niet de oorzaak van het feit dat pagina’s met de zoekterm in de Meta-Title vaker beter scoren dan pagina’s die dat niet hebben, sterker: we weten niet eens zeker of de Meta-Title daadwerkelijk in het rankingalgoritme wordt gebruikt, ook al is er een hoge correlatie tussen de twee. Hume stelde dat wij mensen de neiging hebben om verbanden te zien die er niet zijn. Laat ik dit toelichten aan de hand van een ander SEO-voorbeeld. Alle SEO-onderzoeken laten een zeer sterk verband zien tussen scoringsposities van webpagina’s en het aantal Facebook shares/likes dat die pagina heeft gekregen. Je ziet dan dit soort plaatjes: De rood omkaderde factoren zijn factoren die Facebook betreffen. De oppervlakkige lezer, en dat zijn we allemaal want we hebben nog zoveel andere dingen te doen, zal uit zo’n plaatje concluderen dat het rationeel is om Facebook te gaan inzetten om onze Google rankings te versterken. Maar niets blijkt minder waar, als we de reactie van Google op dit soort ontdekkingen beluisteren. Google zegt namelijk doodleuk ze geen Facebook-signalen (aantal likes, shares etc.) in hun rankingalgoritme gebruiken.   Ja maar, waarom scoort Facebook dan zo hoog? Dat komt, zoals we inmiddels begrijpen, omdat in onderzoeken alleen bekeken kan worden in hoeverre een factor gecorreleerd is aan de rankings. Blijkbaar is het zo dat goed scorende pagina’s relatief meer Facebook-signalen hebben dan lager scorende pagina’s. Maar dat betekent nog niet dat Google die signalen ook daadwerkelijk heeft geïmplementeerd. Het kan natuurlijk best zo zijn (en dat is precies Google’s reactie) dat als een pagina veel Facebook-signalen heeft, die pagina waarschijnlijk ook relatief veel inkomende verwijzingen heeft. Het is immers een gewaardeerde pagina. Het is bekend dat inkomende verwijzingen expliciet in het Google algoritme worden gebruikt (dus een causaal verband hebben met de scoringsposities). Maar voor Facebook signalen geldt dat dus (hoogstwaarschijnlijk) niet. Causale verbanden kunnen in principe alleen worden gevonden door in de programmacode van de zoekmachine te kijken. Daar kan exact worden achterhaald wat de logica achter de rankings is. Hoewel, ‘exact’? Door de vlucht die Artificiële Intelligentie technieken ook in het zoekalgoritme nemen, is het nog maar de vraag of alle logica achter de scoringsposities ooit nog helemaal geëxpliciteerd kan worden. Als wij mensen een vage afbeelding van iemands gezicht zien, en de persoon desondanks herkennen, dan kunnen wij ook niet precies zeggen hoe de herkenning tot stand is gekomen. Het is meestal een mix van niet te expliciteren factoren. Zo werkt het ook bij bijvoorbeeld Neurale Netwerken, een belangrijk gebied binnen de Artificiële Intelligentie, dat door Google op allerlei manieren is omarmd, bijvoorbeeld voor patroonherkenning. Maar daar kom ik in een apart artikel graag nog even uitgebreider op terug. Maar hoe weten we dan dat –zoals ik zojuist stelde- inkomende verwijzingen wél een causaal verband hebben met de rankings, m.a.w. dat inkomende verwijzingen wél onderdeel zijn van het algoritme? We kunnen de programmacode toch niet inzien? Met de beantwoording van deze vraag moeten we weer een volgende stap zetten.   De kracht van redenatie Hoewel ik iets niet zeker kan weten, meen ik het tóch te weten. Dat is eigenlijk best raar, en op het eerste gezicht ook niet zo wetenschappelijk. Toch is het mogelijk van verschillende aspecten van het algoritme een vrij aardig beeld te krijgen, zonder inzage in het algoritme zelf. Dit heeft te maken met de kracht van “redenatie”. Via een sterke redenatie kan soms zeer aannemelijk worden gemaakt dat iets simpelweg zo moet zijn. Een sterke redenatie steunt op twee aspecten. Allereerst moet de redenatie logisch zijn. Vanuit de wetenschapsfilosofie zijn ons vele handvaten aangereikt voor een logische redenatie. Zo weten we allemaal dat een koe een dier is, maar dat we dan niet kunnen stellen dat een dier een koe is. Dit klinkt vrij triviaal, maar je moet maar eens opletten hoe vaak mensen, ook niet de minsten, desondanks de mist ingaan.  Bijvoorbeeld: veel criminelen zijn Marokkaan. Conclusie: veel Marokkanen zijn crimineel. Om er maar eentje te noemen… Ten tweede moet de redenatie steunen op heldere uitgangspunten. Voor wat betreft het verzamelen van uitgangspunten kunnen we –naast de hiervoor genoemde officiële publicaties van Google zelf- ook gebruik maken van bijvoorbeeld de volgende zaken: Huidige stand van de techniek Patenten van Google (Promotie) publicaties van specialisten die door Google zijn ingehuurd Keuzes door Google in het verleden Politieke stand van zaken en (verwachte) ontwikkelingen Sneak previews Ik zal deze punten één voor één langslopen.   Invloed huidige stand van de techniek Meestal vanuit een soort whisful thinking zien we regelmatig stellingen over de mogelijkheden van technologieën als Artificiële Intelligentie, Big Data, Neurale Netwerken, Genetische Algoritmen, etc., die –gegeven de stand van de techniek- nog helemaal niet waargemaakt kunnen worden. Door kennis te hebben van de stand van zaken kunnen bepaalde claims vaak eenvoudig van tafel worden gehaald. Voorlopig althans, want ik moet bekennen dat het tegenwoordig wel erg snel gaat allemaal, juist ook op die vlakken…   Patenten van Google Een andere belangrijke bron van kennis voor onze redenaties, zijn de patenten van Google. Google laat namelijk regelmatig ideeën patenteren aangaande het zoekalgoritme. Een voorbeeld hiervan is een patent uit 2015 om kwaliteitsscores te berekenen voor websites. Dat patent kunt u hiervinden, ik toon u er een paar zinnen uit: The site quality score for a site can be used as a signal to rank resources, or to rank search results that identify resources, that are found in one site relative to resources found in another site.Google Het beroemdste patent van Google betreft natuurlijk het PageRank-patent uit 1998. Met de implementatie van PageRank werd Google geboren. Met de inhoudelijke bestudering van de patenten weten we nog niet zeker of Google dit daadwerkelijk ook al heeft toegepast, maar het kan wel degelijk onderdeel zijn van onze redenaties, mits we duidelijk maken dat we ons (mede) baseren op een patent.   Publicaties van specialisten die door Google zijn ingehuurd Iets soortgelijks geldt voor promotieonderzoeken of universitaire publicaties van personen die door Google in dienst zijn genomen. Als we bijvoorbeeld kijken naar het CV van Navneet Panda, een beroemde software engineer binnen het zoekalgoritme-team (of zoals ze het zelf noemen: “Google Search Quality team”), dan zie we allerlei publicaties van zijn hand die de analyse van teksten en zoekopdrachten betreffen. Het is niet vreemd te veronderstellen dat de kennis van personen die Google in dienst neemt, en op sleutelposities terecht komen, invloed hebben op het uiteindelijke product. Ook die kennis kunnen we daarom meenemen in onze redenaties, mits we daar helder over zijn.   Keuzes door Google in het verleden Ik volg sinds begin van deze eeuw de ontwikkelingen rond Google’s zoekresultaten op de voet. Daaruit komt ook een beeld naar voren. Kort gezegd steunt dit beeld voor mij op een tweetal pijlers: Google’s Search Quality team bestaat uit technici die in alle oprechtheid continu bezig zijn een heel mooi product te maken; Google is een commercieel bedrijf dat aandeelhouders tevreden moet blijven stellen door de enorme winstgroei vast te houden. Tussen deze twee pijlers zit een snel groeiend spanningsveld, vooral omdat het leeuwendeel van Google’s winst uit de betaalde zoekresultaten afkomstig is. Je ziet bijvoorbeeld dat de gratis zoekresultaten steeds verder onder druk komen te staan: niet omdat de gratis zoekresultaten zelf slechter of commerciëler zouden zijn geworden (dat zijn ze in mijn optiek niet), maar vooral omdat de beschikbare ruimte voor gratis zoekresultaten afneemt. Bij met name commerciële zoekopdrachten wordt het gehele scherm initieel gevuld met betaalde advertenties. Pas als we naar beneden scrollen zie we de gratis resultaten. Kijk hier maar eens, of hier.   Politieke stand van zaken en (verwachte) ontwikkelingen De laatste, hiervoor genoemde, link leidt naar een voorbeeld van een situatie waarover Google in de clinch ligt met de Europese Commissie: bevoordeelt Google hier haar vergelijkingsproduct (Google shopping) t.o.v. andere vergelijkingsites (zoals bijvoorbeeld beslist.nl)? Er zijn zelfs landen binnen de EU (Duitsland, Frankrijk) die Google oproepen de black box te gaan openen. Dit soort zaken kunnen we meenemen in onze redenaties rond het al dan niet aanwezig zijn van bepaalde rankingfactoren. Bijvoorbeeld: zal Google de volgende formule implementeren als er een kans bestaat dat die op tafel komt te liggen? If site.Adwords=yes Then site.ranking = site.ranking + 1 Dat lijkt mij, op z’n zachts gesproken, niet slim. Het feit dat Google rekening te houden heeft met een situatie in de toekomst waarbij de algoritmen geopenbaard (moeten) worden, zal maken dat ze meer integer zullen handelen dan wanneer die situatie uitgesloten zou zijn. We gebruiken Google immers omdat we ze vertrouwen. Wat gaan we doen als blijkt dat dat niet het geval is? Toch maar op de OK-knop drukken als we de vraag krijgen of Bing onze standaardzoekmachine moet worden? Ik ga er vanuit dat Google dat risico niet wil nemen. Maar misschien ben ik op dit punt wat naïef.   Sneak previews Google is constant allerlei veranderingen real-life aan het testen. Als een SEO dat opmerkt, publiceert deze dat vaak even in één of ander SEO forum. Een recent voorbeeld hiervan zijn de ‘cards’. Onder invloed van het toenemende gebruik van de zoekmachine via mobiele apparaten lijken de linkjes op de resultaatpagina langzaam maar zeker vervangen te gaan worden door verticaal gepositioneerde “informatie-eenheden” waar we horizontaal doorheen kunnen vegen. Ook door gebruik te maken van sneak previews kunnen we onze redenatie verbeteren. In het verlengde hiervan kan worden opgemerkt dat Google zijn aanpassingen meestal allereerst in de VS uitrolt. Door zoekresultaten aldaar in de gaten te houden weten we beter wat er –vermoedelijk- hier in Europa en Nederland ook gaat plaatsvinden. Soms zit er overigens wel één á twee jaar tussen het moment van lancering van een vernieuwing in de VS en NL. België volgt meestal weer wat later dan Nederland. De Belgen kunnen dus weer bij óns spieken.   Vermeld je bronnen! Een cruciaal aspect van een overtuigende redenatie zijn de bronvermeldingen. Wáár heb je de kennis vandaan? Antwoorden kunnen zijn: “dat staat daar en daar”, of “dat heeft google toen en toen gezegd”, of “dat heb ik zelf ontdekt door dit en dat experiment uit te voeren”, of “dat denk ik omdat ik inschat dat Google zich om die en die reden zus en zo zal ontwikkelen”. Dat mag dus allemaal in een overtuigende redenatie, mits de redenatie wordt ondersteund door heldere bronverwijzingen. Alleen op die manier krijg je gefundeerde ontwikkeling van kennis.   Gemakzucht en misleiding via tools Er zijn vele tools en plugins in omloop die door hun concrete aanwijzingen en signalen, de schijn van nauwkeurigheid, dus waarheid, geven. Als de tool zegt dat we de zoekterm nog een keer extra in de tekst moeten opnemen, om een voor de zoekterm geoptimaliseerde tekst te realiseren dan hebben we snel de neiging dat netjes te doen. Maar waar baseert zo’n tool dergelijke aanwijzingen op? Om commerciële redenen wordt er vaak maar wat geïmplementeerd. Zo las ik recent in een forum de opmerking dat de optimale pagina titel als volgt zou kunnen worden berekend: (1 / (((Positie offset –  titel lengte) / titel  lengte) x (kw density / 3.2)))  x 100 In deze lekker eenvoudig implementeerbare formule zien we bijvoorbeeld de zoekterm dichtheid (kw density). We weten echter al vele, vele jaren dat de zoekterm dichtheid geen rankingfactor is. Dat weten we uit de reacties op dit onderwerp door Google zelf, uit de publicaties omtrent het vakgebied dat precies over dit onderwerp gaat (Information Retrieval Systems) en uit ons eigen logische denken (waarom zou een tekst met een zoekterm dichtheid van 2.51% beter of slechter zijn dan één met een dichtheid van 1,76%??). En toch blijven de makers van seo tools hun klanten misleiden met deze onuitroeibare mythe. Maar het is natuurlijk ook aan de klanten zelf om zich minder opportunistisch op te stellen, d.w.z. zich niet zo eenvoudig te laten misleiden door dergelijke snelle -meestal zeer goedkope- adviezen.   Conclusie Het SEO-vakgebied is een zeer lastige. Google stelt dat we ons niet te veel met SEO moeten bezig houden: “bouw nu maar gewoon een goede website voor je klanten, dan zorgen wij wel dat die gevonden wordt”, zeggen ze dan. Maar wat vinden zij een goede website? De makkelijkste manier is om Google maar gewoon te vertrouwen in hun objectiviteit en technische superioriteit, en over te gaan tot de orde van de dag (het bouwen van goede websites voor klanten). Maar voor SEO professionals is het antwoord hiermee niet gegeven. Die fungeren als stormrammen tussen Google en de aanbieders van content. Want die aanbieders hebben belangrijke vragen: hoe komt het dat mijn goede website niet wordt gevonden? En dan blijkt daar toch een heleboel over te zeggen. Onze antwoorden moeten -en dat is mijn stelling- daarbij gefundeerd kunnen worden op een goed systeem van waarheidsvinding. En precies daar hebben we wetenschappelijke methodes voor. In dit essay heb ik geprobeerd een aanzet te geven voor de toepassing van die methodes op het SEO-vakgebied. Ter ondersteuning van de aanbieders van goede content hebben we dus de wetenschap nodig. Maar ook aan de kant van de afnemers, de zoekers, de consumenten, is steun van de wetenschap nodig: vinden wij de websites die Google blijkbaar goed vindt, zelf óók zo goed? Of moeten we hier wederom vertrouwen op Google’s objectiviteit en technische superioriteit? Maar vinden wij het ook ‘objectief’ als we na een zoekopdracht als ‘drone’ een pagina met alleen commerciële sites zien? Misschien wel, misschien niet, in ieder geval zouden wij (Europeanen) ook daarover een gefundeerde mening moeten hebben. Simpelweg omdat de impact van de organische zoekresultaten op onze kenniswerving zo groot is.

  • 0 Google Penalty: wat is dat eigenlijk?

    0.00 van 0 stemmen

    Stel dat de site van de ene op de andere dag op vele zoekwoorden een stuk lager scoort dan voor die dag. Heeft de site een penalty gekregen? Is het getroffen door een algoritmische wijziging? Wat is er aan de hand? Wat moet ik doen? Via dit artikel wil ik wat helderheid verschaffen over dit lastige gebied. Ik zal daarbij ook begrippen verhelderen, met name het verschil tussen een handmatige en een algoritmische penalty. Ik ga niet of nauwelijks in op de individuele problemen die ten grondslag kunnen liggen aan de vermeende penalty. Na het lezen van dit artikel zal u in algemene zin meer inzicht hebben in het wonderlijke fenomeen van de Google penalty.   Als we een significante daling in verkeer zien vanuit de organische zoekresultaten van Google, is de eerste stap dat we in Hulpprogramma’s voor webmasters gaan kijken of Google daar iets gemeld heeft. Dat doen we bij het onderdeel Siteberichten en bij het onderdeel Zoekverkeer-Handmatige acties. Bij het eerste onderdeel worden geautomatiseerde meldingen weergegeven, bij het tweede onderdeel de meldingen als gevolg van handmatige ingrepen. Laten we beginnen bij die laatste. Handmatige ingreep Handmatige ingrepen door Google vinden normaal gesproken alleen plaats als de kwaliteitsrichtlijnen van Google zijn overtreden. Google meldt dan binnen Hulpprogramma’s, zoals ook in de volgende figuur te zien is, welke actie het betreft en op welk onderdeel binnen de site de actie betrekking heeft. Ze noemen dit dus geen penalty maar een actie, of eigenlijk een ‘actie tegen webspam’. Het effect kan zijn dat de site opeens slechter scoort, maar ook dat de site geheel uit de zoekresultaten verdwijnt. Handmatige ingrepen vinden dus plaats bij overtreding van de kwaliteitsrichtlijnen, maar Google behoudt zich het recht voor om ook om allerlei andere redenen handmatig in te grijpen, bijvoorbeeld op last van de rechter, of op basis van zwaarwegende verzoeken (iemands credit card gegevens blijken openbaar gepubliceerd). Indien op de site een handmatige ingreep heeft plaatsgevonden, bijvoorbeeld omdat er sprake is van cloacking (dat is één van die praktijken die tegen de kwaliteitsrichtlijnen ingaan), dan dienen we dat probleem op te lossen en vervolgens een verzoek tot herbeoordeling (Eng: reconsideration request) in te dienen. Algoritmische ingreep Het kan ook zijn dat er sprake is van een geautomatiseerde of algoritmische ingreep. Dat is een stuk lastiger dan de handmatige, omdat Google hier niet altijd melding van maakt. Dan moeten we gaan raden wat het probleem zou kunnen zijn. Is het Panda, is het Penguin, of is het een gevolg van één van die vele andere algoritmische wijzigingen die Google continu doorvoert? Google zelf zegt dat het verschil tussen een algoritmische penalty en een daling in rankings door een algoritmische wijziging of ingreep, vaak moeilijk te bepalen is. In beide gevallen heeft het rankingalgoritme immers “besloten” de site lager dan voorheen te laten scoren. Als we veel aan linkbuilding hebben gedaan moeten we aan ons linkprofiel gaan werken (Penguin). We zullen moeten proberen zoveel mogelijk linkjes verwijderd te krijgen en de resterende linkjes te disavowen (zie hieronder). Als de site veel achterhaalde informatie bevat, dan zullen we dáár misschien aan moeten werken (Panda). Als er veel crawlerrors zijn, of de site erg traag is, moeten we dié technische zaken oplossen. Er kunnen dus erg veel redenen aan de basis liggen van een algoritmische verandering in rankings, of we die nu een penalty of een algoritmische wijziging noemen. Hier een verhelderende video van Google op dit punt. Na verbeteringen aan de site als reactie op algoritmische ingrepen heeft het geen zin om een reconsideration request in te vullen. We zullen moeten wachten tot de algoritmen van Google weer positiever naar onze site kijken. Sommige onderdelen van het algoritme doen dit heel snel, maar andere onderdelen (zoals Penguin) kunnen hier lang over doen: dan zullen we moeten wachten op een nieuwe run (die slechts een paar keer per jaar plaatsvindt). Nieuwe site beginnen? Als het, vervolgens, maar niet lukt de problemen op te lossen en de site laag blijft scoren kan het verleidelijk te zijn de hele boel over te zetten naar een nieuw domein en het oude domein te 301-redirecten naar het nieuwe. Helaas redirecten we de problemen op deze manier ook, dus dat is geen oplossing. In een interview van Barry Schwartz van seroundtable.com met Googler John Mueller wordt gesteld dat de penalty zelfs zonder 301-redirect mee gaat naar de nieuwe site indien die laatste één op één een kopie is van de oude. Dan blijft er dus weinig anders over dan het van de grond af aan opbouwen van een nieuwe site. Tot slot nog even iets over het disavowen van linkjes De meest voorkomende penalty’s, tegenwoordig, betreffen sites die een slecht linkprofiel hebben doordat ze agressief aan linkbuilding hebben gedaan. Daarbij is de procedure allereerst dat we moeten proberen zoveel mogelijk van die linkjes verwijderd te krijgen en de overgebleven linkjes via Hulpprogramma’s voor webmasters ‘af te wijzen’ (Eng: disavow). Voor het opsporen van lage kwaliteit verwijzingen zijn allerlei zogenaamde “link detox tools” in omloop zijn. U kunt Googlen op dat zoekwoord als u meent er één nodig te hebben. Het is duidelijk dat het disavowen van links een grote industrie gaat worden binnen SEO. Aanvankelijk gaf Google aan dat we vooral niet moeten gaan disavowen als we geen penalty hebben opgelopen. Eind 2013 kwam Google echter opeens met de video dat we linkjes wel degelijk kunnen disavowen als we ons onzeker voelen over de consequenties van bepaalde links voor onze site. Dat is natuurlijk koren op de molen van de disavow-industrie. Want welke webbeheerder, die afhankelijk is van het organisch verkeer, is níet onzeker over de kwaliteit van de linkjes? Mijn advies is echter om niet te gaan disavowen als er geen sprake is van een penalty. Want misschien gaat u wel linkjes weghalen die juist in positieve zin bijdragen aan uw scoringsposities. [important]Leer meer over dit onderwerp, en over nog veel meer interessante SEO-zaken, via mijn SEO trainingen. Op Springest hebben bijna honderd deelnemers de trainingen beoordeeld met een gemiddeld cijfer van 8.8, wat het hoogste is van alle seo trainingen in Nederland.[/important]

© Copyrights Newdem.nl