Les sites parasites et le référencement

Vous trouvez un site DA élevé qui permet d’ajouter et d’indexer du contenu généré par l’utilisateur. (l’hôte)> Les parasites courants incluent Medium, Amazon s3, Github, Linkedin, Quora, Youtube, ect. Le classement Google ne s’applique pas aux sous-domaines. Le sous-domaine n’hérite d’aucun rang du parent. C’est pourquoi blogspot et s3 ne fonctionneront jamais à cet égard. Le boost SEO parasite ne fonctionne que si le lien passe le classement, la page elle-même a beaucoup d’autorité SEO et il n’y a pas trop de liens sortants. Medium ne fonctionnera pas pour cette raison, sauf si vous obtenez votre lien sur une page moyenne de très haut rang. Le simple fait de poster votre lien sur un nouveau blog moyen est inutile. Idem pour Github, Quora, Youtube, linkedin pour ces raisons. Hmm ce n’est pas correct à 100%. Google applique toujours cela à certains domaines. Blogspot en est un bon exemple. et c’est le même domaine pour CHAQUE compartiment, il a donc définitivement l’autorité de lien. Ce que l’article a manqué, c’est que la plupart de ces parasites medium / s3 / blogspot ont quelques années. Alors qu’il y a un an, vous pouviez créer un blog Medium et le classer en moins d’un mois, avec la dernière mise à jour de Google, il faut beaucoup plus de temps pour voir les choses se classer. Cependant, hier, j’ai vu une exception à cela, car ce compte moyen s’est classé littéralement en 2 jours sans aucun backlink (la page a depuis été supprimée): Les parasites fonctionnent bien, il vous suffit de trouver la bonne «sauce secrète». Certaines personnes peuvent encore spammer des milliers de backlinks en utilisant Xrumer et / ou GSA ou filtrer lentement des liens PBN bon marché. L’article montre la recherche de mots clés tels que «coupon HostGator» ou «piratage Clash of Clans» et vous verrez que les 10 premiers résultats changent littéralement quotidiennement. Les gens font beaucoup de redirections 301 (achetez des domaines expirés avec beaucoup de backlinks de haute autorité et 301 vers votre URL), puis bloquez les bots pour les outils de référencement comme Ahrefs / Majestic / SEMRush etc. afin que les autres SEO ne puissent pas trouver leurs backlinks . Ils n’utilisent pas l’hôte pour le jus de liaison, ils utilisent l’hôte pour le lead-gen. Leur document PDF dans S3 établit un lien vers leur site de spam de bas rang, mais le PDF lui-même se classe bien. Idem pour les publications moyennes, les pages github, les questions quora, etc. Cherchez sur Google “biologie 10e édition pdf gratuit” et voyez ce que je veux dire. Certains hôtes de premier rang sont: Quora, Pinterest et DailyMotion. Les parasites sont les vidéos / PDF / questions / images (contenu généré par l’utilisateur) qui pointent vers le site de spam de bas rang. Dans certains cas comme Quora, le jus de lien est là, car il n’est pas sur un sous-domaine. Pour les sous-domaines comme S3, il s’agit du trafic / lead-gen, pas du pagerank. Cependant, tout récemment, Google a frappé ces sites en imposant des pénalités pour ces sous-domaines. Donc, ce “SEO parasite” n’est vraiment plus un problème, en particulier le “truc” du sous-domaine. Avez-vous regardé les exemples de l’article? “Le classement Google ne s’applique pas aux sous-domaines. Le sous-domaine n’hérite d’aucun rang du parent.” Entrez, ou dans Ahrefs et vous verrez que ce n’est pas vrai. “C’est pourquoi blogspot et s3 ne fonctionneront jamais à cet égard” L’article contient plusieurs exemples de classement de parasites s3 pour des termes d’affiliation compétitifs tels que “Coupon Hostgator” et “Coupon Bluehost”. Si vous recherchez ces termes maintenant, vous verrez sites.google et les parasites s3. Quiconque passe 30 secondes à vérifier un résultat de recherche peut voir que vous êtes un peu trompeur ici. Les résultats # 3 et # 4 pour moi pour “Coupon HostGator” sont Amazon s3 et une page de sites Google De toute évidence, cela fonctionne toujours. De toute évidence, il existe des moyens de le faire mal qui ne fonctionneront pas, comme toute autre chose. Le plus grand avantage de cette stratégie est 0 risque de spam et de pratiques SEO abusives. Comme vous ne les connectez pas à un domaine que vous possédez, cela peut être fait de manière totalement anonyme. Google: correct! Nous n’utilisons plus ces signaux! Nous sommes tellement intelligents. Moi: Mais mes concurrents utilisent ouvertement ces techniques et ils me dépassent. Expert SEO: Ummm, oui mais un jour ça va cesser de fonctionner! Google: faites comme si nous n’existions pas, concentrez-vous sur vos utilisateurs! Moi: Mais je dois gagner ma vie maintenant et je n’ai pas d’utilisateurs. grillons Ahhh marketing d’affiliation, toujours en camionnage, toujours la forme la plus basse de marketing numérique Bien que le marketing d’influence ait eu un bon coup sur ce titre au cours des 5 dernières années Soyons clairs ici: le contenu ne se classe pas parce qu’il se trouve sur un sous-domaine ou un dossier du domaine fort, il se classe parce qu’il est là ET reçoit beaucoup de liens de la plupart / de toutes les pages de ce domaine fort. Les liens sont la partie pertinente, vous obtiendriez des résultats similaires (bien que moins forts) si vous aviez des liens à l’échelle du site depuis les principaux domaines vers votre domaine distinct. Google a déjà une règle pour y faire face: acheter et vendre des liens (et, par extension, louer des liens) est contraire à leurs directives. Ils ne l’appliquent tout simplement pas aux grandes sociétés d’édition. “Vous pouvez afficher l’AD d’un site Web en utilisant MozBar (une extension Chrome gratuite), Link Explorer (un outil d’analyse de backlink), la section Analyse SERP de l’Explorateur de mots clés et des dizaines d’autres outils de référencement sur le Web.” Pourquoi ne devrais-je pas simplement taper le domaine et le rechercher là-haut? C’est la métrique de Moz. Majestic a sa propre métrique (TF / CF Trust Flow et Citation Flow) et Ahrefs (UR / DR URL Rating et Domain Rating). Je dirais que Ahrefs est légèrement plus précis que les autres, mais pour être honnête, n’importe lequel de ces chiffres peut être joué et n’est pas une représentation précise d’un domaine et / ou d’un backlink. J’ai un blog personnel et environ 80 à 90% de tous les commentaires sur mes messages sont ceux-ci. Au début, je les ai simplement supprimés quand je les ai vus, audit seo mais j’ai ensuite dû activer la modération. Les gens indiquent souvent aux médias sociaux pourquoi les blogs personnels se sont éteints, mais je parierais que le spam de commentaires avait tout autant d’impact. Les blogs étaient énormes il y a à peine 10 ans, mais finalement le volume considérable de commentaires de spam avec des liens vers “Air Jordan, Gucci, Givenchy, travail à domicile”, a vraiment retiré la sensation commune de la section des commentaires. WordPress et Disqus n’ont pas agi assez rapidement pour détecter automatiquement ce spam et empêcher leur publication, et il n’a pas fallu longtemps avant que les conversations ne commencent à se déplacer sur FB, Twitter et Medium. Comme pour toute tactique SEO considérée comme louche ou potentiellement sournoise au sein de la communauté, ceux qui ignorent les critiques et jouent pour gagner »en poursuivant agressivement l’opportunité voient le meilleur résultat financier. Même si Google désindexe ces sous-domaines demain, des dizaines de millions de dollars ont été réalisés en un an à partir de cette seule tactique. Les gens disent des choses comme ça et se demandent ensuite pourquoi le SEO a une mauvaise réputation. Est-ce vraiment du «parasite SEO» si CNN décide d’utiliser leur influence sur les noms de domaine avec Google pour faire des coupons de promotion de bénéfices (substantiels)? On dirait plus une décision commerciale avisée de la part de CNN au lieu de trucs de type scummy / greyhat / parasite-seo, non? C’est aussi dans leur ruelle. Ils vendent des publicités. Les coupons sont des publicités.> Est-ce vraiment du «parasite SEO» si CNN décide d’utiliser son influence sur les noms de domaine avec Google pour faire des coupons de promotion de bénéfices (substantiels)? CNN ne le fait pas. Quelqu’un d’autre “loue” le sous-domaine de CNN, et ils sont le parasite qui se nourrit de la marque CNN. Se référer constamment à “l’algorithme de Google” passe à côté du vrai problème. Google peut faire ce qu’il veut. Google peut «faire confiance» à quiconque ou à personne sauf à lui-même. Google a tout le trafic, pas les sites Web de coupons. Avons-nous besoin de lois qui régissent ces intermédiaires? “Google peut faire tout ce qu’il veut” – ne serait-ce pas un comportement anticoncurrentiel s’ils déclaraient favoriser certains sites dans leur algorithme? Je crois me souvenir d’avoir lu quelque part qu’ils sont audités pour s’assurer qu’ils ne le font pas, bien que je ne trouve pas le lien. Je pense qu’ils sont parfaitement autorisés à privilégier certains sites par rapport à d’autres, surtout avec de bonnes raisons de le faire.

Notice: This work is licensed under a BY-NC-SA. Permalink: Les sites parasites et le référencement.