今、SEOはどんどん高度化して、難しくなってきていますよね。
サイトが大規模になるとSEOの実験をして順位が下がったなんてことが恐ろしくて、いろいろな変更がしづらくなったりします。また、サイト規模が大きくなると、クローリングや反映にまた時間もかかったりして大規模サイトのSEOは本当に大変です。
私達ってSEOの専門家ではないので、GoogleのSEO最新情報とかもアップデートできているわけじゃないし、perplexityやChatGPTといったAIによる検索のシェアももちろん上がることの影響もよくわからないところがあります。
そもそもSEOって帰納法的に正解を導き出すので、外部から見てれ本当に有効かな…って思う事もけっこう多かったりします。1つの課題に対して、専門家の意見が全く違う意見だったりして何が正解かが本当にわからない世界です。結果として、大規模サイトのSEOの知見を得ようというのはなかなか難しいなというのが私の印象です。
それでも、ウェブビジネスを行うにあたってSEOの知見は絶対必要。なので、最近のSEOの知見を貯めるために、今回
サイトを作り実証実験します
「ケアワークス」という求人検索サイトを、実際に作ってみました
ケアワークスとは?
- 介護職の求人に特化した検索エンジン型のウェブサイト
- 現在、56万件以上の求人情報を掲載
- 求職者は求人を検索し、掲載元のサイトへ誘導する
私たちは、このサイトの運営を通じて、大規模な求人データを統合したサイトのSEOや検索性向上に関する知見を蓄積していこうかなと思っています。
成功するにせよ、失敗するにせよこれらの知見は、顧客に有益なソリューションを提供するための事前検証としても重要な役割を果たします。
また、ここで得られた知見や実験結果は、こちらのブログで定期的に共有していきたいと思っております。
アグリゲーションサイトのSEO
アグリゲーションサイトを構築するにあたって、私たちが考えた設計プロセスはこういう感じでした。
- データのクローリング
- スクレイピング
- データの更新と終了処理
- 関連語辞書の作成
- 重複コンテンツへの対応
- SPAの実装
- プロモーション(被リンク獲得)
今回は、サイト作成段階なので、プロモーションはまた別でお伝えするとして、SPAの実装までについて記事にしたいと思います。
以下が、行ったことの詳細になります。
具体的な取り組み
1. データのクローリング
- 求人情報サイトでもっとも重要なのは情報の正確性です。情報を正確に収集するため、Zyte(データ抽出ツール)を活用し、各求人サイトをクローリング(自動データ収集)しています。 この際、サイトに過剰な負荷をかけないよう、適切な間隔を設定しながらデータを取得しています。
- 対象となる求人サイトの数がとても多いため、効率的に情報を取得するための技術的な調整が重要となります。特に、サイトごとに異なる構造に対応しながら、必要な情報を正しく取得できるよう工夫を重ねています。
2. スクレイピング
- クローリングで収集したデータから、必要な求人情報を抽出する作業がスクレイピングです。
- このプロセスでは、Pythonのライブラリを活用し、求人サイトごとに異なるフォーマットのデータを統一的な形式に整理しています。
- データの処理にはAWS Lambda(サーバーレスのクラウドサービス)を利用し、スケーラブルかつ効率的なデータ保存を実現しています。
- 求人情報には多くの共通項目(職種、勤務地、給与、雇用形態など)があるため、それらを適切に抽出し、検索しやすい形に整えることが重要です。
3. データの更新と終了処理
- 求人情報は日々変化するため、古い情報が掲載され続けないよう管理することが求められます。そのため、以下の施策を実施しています。
- 求人情報の定期更新:新規の求人を追加すると同時に、掲載終了したものを自動的に削除
- 適切なリダイレクト処理:削除された求人ページにアクセスがあった場合、適切な誘導を行う
- これにより、ユーザーに正確な情報を提供するとともに、元の求人サイトへの影響を最小限に抑えています。
4. 関連語辞書の作成
- 求人サイトの検索機能を向上させるために、関連語辞書を作成しています。
- これは、ユーザーの検索行動を分析し、適切な関連ワードを提示する仕組みです。
- 具体的な取り組みは以下です。
- キーワードの抽出求人情報のタイトルや説明文から、頻出する単語やフレーズをピックアップ
- 単語同士の関連性を計算例えば、「エンジニア」と検索した場合に「プログラマー」「システム開発」などの関連語を提示
- 検索結果の精度向上ユーザーが入力したキーワードに基づき、適切な求人情報を優先的に表示
- この仕組みにより、求人検索の利便性を向上させ、求職者が適切な仕事をより早く見つけられるよう工夫しています。
- また、クローラビリティーや関連性やテーマ性の向上にもプラスがある施策になると考えています。
5. 重複コンテンツへの対応
- 求人サイトのSEOにおいて、重複コンテンツは大きな課題です。同じような内容を持つページを多数保有することは、検索エンジンから「価値が低いサイト」と判断する恐れがあります
- 今回、この問題を解決するために、以下の施策を実施しました。
- データベースで検索結果を管理:データベースを活用して、重複するコンテンツが生成されないように制御しています。
- 重複率が一定以上のページを検索対象から除外:Googleの検索エンジンが推奨するガイドラインに従い、重複率の高いページは検索結果に表示されない設定にしています。
- 段階的なページ解放:関連する求人情報を段階的に公開する仕組みを採用し、無秩序にページを公開しないよう工夫しています。
- これらの施策により、検索エンジンから評価をされうる質の高いコンテンツを提供しています。
6. SPA(シングルページアプリケーション)の実装
- 求人検索の利便性を向上させるために、SPA(シングルページアプリケーション)を導入しています。
- SPAとは、ページ全体を読み込むのではなく、必要な部分だけを動的に更新する仕組みです。この技術を利用する狙いは以下です
- 高速な画面遷移:ページの読み込みが短時間で完了するため、ユーザーのストレスを軽減できます。
- 直感的な操作性:求人サイトの検索結果画面を、大手サイトと同等の使いやすさで設計しました。
- スマートフォン対応:モバイル端末からのアクセスに対してもスムーズな操作体験を提供しています。
- ユーザーの検索体験を向上させることで、サイト全体の信頼性を高める効果が期待できると考えています。
まとめ
私たちシックスワンは、今回、SEOの知見を得ることを目的に、実際のサイトを構築し、運用を開始しました。
本記事では、大規模求人サイトにおけるSEO施策や技術的な取り組みについて詳しく解説しました。これらの取り組みは、単に検索エンジンの評価を上げるだけでなく、ユーザーにとって価値のある体験を提供することを目指しています。
今後も新しい技術を取り入れながら、求人サイトの運営ノウハウを蓄積し、共有していきます。SEOに関する最新情報や実践的なアドバイスを必要とされる方は、ぜひご相談ください。
この記事を書いたのは
- 福田 智洋
- シックスワン株式会社。 ネット系上場企業で、サービス企画の責任者を10年以上経験。独立後も上場企業の新規事業立上げ支援などに関わる。 2018年〜2020年 国立大学にて課題解決に関する講義を担当
投稿した記事
- 2025.02.27SEO最新SEOの知見を得るための検証実験
- 2023.07.04社内の取り組み思ったより大変?構造化面接で困ったこと
- 2023.06.26思考のフレームワーク求めるものは「変化」
- 2023.05.15思考のフレームワーク論理的思考について(それと直感的判断と)