SEOの間違いトップ10(海外SEO情報)
カテゴリ:SEO
タグ:
SEOに対しての間違った情報(解釈)についてGoogleのジョン・ミューラーやゲイリー・イリーズ、ダニー・サリバンが解説しています。
目次
- 1 Googleは重複したコンテンツにペナルティを課す
- 2 Googleはインデックス作成でcanonical URLを優先してクローリングする
- 3 品質のアップデートをするとアルゴリズミック・ペナルティが課される
- 4 Googleのトップランキングには3つの要因がある
- 5 Google Sandboxは新しいサイトのインデックス作成時にフィルタをかける
- 6 サイトのバックリンクの品質を維持するためにバックリンクを否認拒否する
- 7 Googleはすべての高い権限を持つドメインからのバックリンクを評価する
- 8 Googleがページスピードをランキングの主要な要因として考慮する
- 9 フレッドアップデートはリンク品質に関連したアルゴリズムのアップデートだった
- 10 クロール対策の予算は問題ではない
Googleは重複したコンテンツにペナルティを課す
重複したコンテンツへのペナルティは存在しません。Googleは、重複したコンテンツを持つサイトに対しペナルティは課しません。
Googleでは、コンテンツの重複はウェブでは普通にあることだと理解しており、検索結果に同じコンテンツが繰り返して表示されないように、最も品質が高くて最も関連性の高いページのインデックスを作成するよう目指しています。
サイトがランキングを操作しようとしていない限り、サイトが完全に重複したコンテンツのみで構成されていない限り、重複したコンテンツにより起こる最悪のシナリオは、同様のページが一緒にインデックス内に折り込まれ、ページの別のバージョンが代わりに表示されることです。
SEOの専門家は、検索エンジンに検索されるページにするために多数のシグナルを施すことができます。それには、カノニカルの正確な使用や、サイトマップの受容性、および奨励ページを指し示す内部リンクを含みます。
Googleはインデックス作成でcanonical URLを優先してクローリングする
あなたがインデックス作成をする優先ページとしてcanonicalタグをつけてURLを設定したというだけで、Googleがこのページをインデックスするとは限りません。
canonicalは、Googleが優先するページの仕様として扱ってはいますが、必ずしもそれをもって優先するページとしている訳ではありません。
このような実例は、新しく開始されたサービス「Google Search Console BETA版」での「送信された URL が canonical として選択されていません」というエラーで確認できます。
Googleが重複したコンテンツ(ページ)の中で、あるページを優れた内容であると判断した場合は、本来選択してほしいページ以外を選択することがあります。
そのような場合、あなたが選択したcanonical URLのページが本当にインデックスを作成するページになったかどうか調べてみることをお勧めします。
以前に説明したシグナル(サイトマップ、内部リンクなど)が、あなたが優先するページを指しているかどうかを確認してください。
重要なのは、Googleに対して確実にそのページのインデックスを優先させるという一貫性のあるシグナルを送ることです。
品質のアップデートをするとアルゴリズミック・ペナルティが課される
最近のインタビューで、元Googleエンジニアのフィリー・ヴィーゼは、アルゴリズミック・ペナルティに関する通説について語っています。
「よくある誤解の1つは、Googleパンダやファントムのような、業界でフレッドアップデートと呼んでいるようなものに関する事項です。
簡単に言ってしまえば品質のアップデートです。
しかし、それを「ペナルティを課されている」または「アルゴリズミック・ペナルティ」だと勘違いしているだけなのです。
アルゴリズミック・ペナルティなんてものはありません。
実際には再度、最適化を行っているだけなのです。
それは、中に公式(検索結果を調整する)が入った大きなブラックボックスのようなもので、何かを入れたり、何かが出てきたりするもので、出てくるのはランキングで、入っているのはあなたのウェブサイトです。
アルゴリズムの変更は基本的にはブラックボックス内の変更であって、その結果生じるものは若干異なるものであることを意味します。これがあなたがペナルティを課せられたということでしょうか?それは違います。
そう感じるかもしれませんが、ペナルティは課せられていません。
Googleのトップランキングには3つの要因がある
2016年3月にAndrei LipattsevがGoogleランキングにおける上位3つの要素はリンク、コンテンツ、タンクブレインであると発表した時は大きなニュースとなりました。
しかし、ミューラーはその後、Webmaster Hangoutでこの声明を取り下げました。
というのもランキング要因はクエリからクエリへ日々変化するので、最も重要なランキングの要因が何であるか決めるのは不可能であると述べています。
検索エンジンのアルゴリズムはあまりに高度なためにそれを概念化できないので、個々のランキングシグナルを重視しても無駄なのです。
代わりに、SEOのプロは、「ユーザーエクスペリエンスの向上」「ユーザーの意図との一致」「より広範なサイト品質の向上のためにサイトを最適化する」ことを重視し、Googleの最新の開発状況を常に最新の状態に保つ必要があると述べています。
Google Sandboxは新しいサイトのインデックス作成時にフィルタをかける
Googleがインデックス内の新しいサイトをどのように扱うかということについてさらなる誤解があります。
長い間SEOの常識のように、Googleがスパム対策のために、立ち上げ直後の新しいウェブサイト(新しいドメイン)にフィルタをかけると信じられてきました。
ミューラーは、GoogleのサンドボックスをWebmaster Hangoutに置いてみて、新しいサイトにこのようなフィルタをかけることはなかったと言いました。
しかし、彼はサンドボックスに似ている一連のアルゴリズムがあるかもしれないとは言いましたが、それらはウェブサイトが他の人が同じクエリでランクインさせようとするのにどう適合するかを理解しようとするものです。
これは、Googleのアルゴリズムが、競合するページに適合していれば、一定期間、ページの順位が上がったり下がったりすることがあるということを意味します。
サイトのバックリンクの品質を維持するためにバックリンクを否認拒否する
SEO対策では、歴史的に低品質なバックリンクまたはスパムのリンクを否定することによって、サイトのバックリンクプロファイルを取り除いてきました。
長年にわたり、Googleのアルゴリズムは、この種の低品質のバックリンクを理解し、どういう時に無視すべきかを知ることで向上してきました。その結果、私たちがバックリンクの拒否を把握し更新する必要性が大幅に減少しました。2017年9月のBrightonSEOでイェーシュは、もしバックリンクがサイトに組織的に入ってくるなら、サイトが手動でのアクションを受け取ることはほとんどないと述べています。イェーシュはまた、彼自身の個人的なサイトには否認ファイルはないと続けました。
問題のあるバックリンクを削除するために、サイトが手動でアクションを受け取った時に限って「バックリンクの否認」を使用することが推奨されています。
Googleはすべての高い権限を持つドメインからのバックリンクを評価する
成功するリンク構築は、目標のサイトを指し示すバックリンクの権限と関連性によって判断されるべきです。それでも、高い権限を持つドメインからのバックリンクは、目標のサイトとの関連性にかかわらず、高い評価を受けています。
しかし、イェーシュはBrightonSEO Q&AでGoogleがバックリンクの関係性を考慮していると述べています。つまり、SEOのプロは、リンクをたどる際にリンクの関連性をもっと重視する必要があるということです。
イェーシュは、内外のリンクを修正する価値があると考えますが、関連性を常に念頭に置いておくことが重要であるとも述べています。質が悪い記事(あなたのサイトと全く関係がない)があなたのサイトにリンクしてあっても、関連性が無いためGoogleは無視します。
Googleがページスピードをランキングの主要な要因として考慮する
Googleはサイトの表示スピードを2010年からランキングに考慮して使用していますが、特にSEOの重要なトピックとなっているように、直感的にはアルゴリズムの重要な部分として組み込んでいるようです。
しかし、ミューラーは、2018年後半にGoogleは速度のアップデートを行う計画があるものの、それはスピードが遅いページと通常の範囲のものとを区別するためにのみ用いると説明しています。
実際、DeepCrawl(公開:DeepCrawlで働いて)では、Googlebotが3分以内に応答するページをクロールしてインデックスを作成することが判明しています。
速度は、訪問者がページの読み込みに時間がかかり過ぎるなどと言ったユーザーエクスペリエンスからのフィードバックを通じて間接的にランキングに影響を与える可能性はありますが、現状ではGoogleがアルゴリズムにおいてスピードをランキングに考慮するには不十分なのです。
フレッドアップデートはリンク品質に関連したアルゴリズムのアップデートだった
Googleでは1日平均2〜3回、検索アルゴリズムを継続的に更新しています。2017年3月に行われたフレッドのアルゴリズムのアップデートは、リンク品質に関連するアップデートと考えられていました。
しかし、イェーシュはPandaやPenguinのような特定のアルゴリズムアップデートがないことを明らかにしました。実際、彼はランキングの変動をフレッド呼んでいました。
クロール対策の予算は問題ではない
クロール対策の予算は複雑でかなり議論されたトピックですが、特定のサイトの全てのページをクロールするGoogleの能力を過大評価する人はその問題を見逃しています。
Googleは、特定のサイトの全てのページを小規模サイトから中規模のサイトまで(最大約200,000ページ)一度にクロールできます。
ただし、重要なページがクロールされていることを定期的に確認する必要があるため、大規模なサイトを管理するユーザーにとっては、クロール対策の予算は重要な課題です。
Googleがあなたのサイトのほとんどをクロールしたかどうかを確認する方法は、Googlebotが404のページを多数、クロールしているかどうかを調べることでわかります。
このことは重要なページのほとんどが既にクロールされていることを示しているからです。