ウェブ・スクレイピング

提供: MonoBook
移動: 案内検索

ウェブ・スクレイピング英語:web scraping)とは、ウェブ上のHTMLなどから機械的にデータを抜き出すことを言う。単にスクレイピングと呼ばれることも多い。

概要[編集]

ウェブスクレイピングとは、日本語に直訳すると「ウェブ削り」であり、ウェブクローラーなどで取得したHTMLなどのデータから余計な部分を削ぎ落とし、目的とする部分を抜き出すソフトウェア、およびそのような行為のことである。

基本的には以下のような手順となる。

  • ウェブクローラーで丸ごと保存
  • ウェブスクレイパーでガリガリ解析

実際にはウェブクローラーが取得した大量のデータ(いわゆるビッグデータ)からデータマイニングを行うプログラム的な意味合いが強いが、ウェブ魚拓的な用途を除けば加工せずに扱うこと自体が非常に稀であるため、ウェブクローラーと区別するのが面倒なのでクローラーの一部として扱われることが多い。

リアルタイムに近い挙動をするものであれば、あたかもウェブAPIを叩いているかのように利用することができる。

また、AJAXの普及などに伴い本来はHTML上のJavaScriptで取得している非公式のウェブAPIを直接的に叩き、データを抜き取るような手法も確認されている。

手法[編集]

プログラミング言語でやる場合にもっとも手軽なのは正規表現でぶっこ抜くという手法である。 これは極端に言えば古くからUNIXsedコマンドなどで行われていたデータ加工となんら変わらない。

もう少し複雑なものでは専用のHTMLパーサー(HTMLを解析できるライブラリ)を使用してぶっこ抜くという手法が用いられる。 これらは内部的には上記の正規表現を用いたものから、XMLに変換して解析を行うもの、独自の解析を行うものなど様々である。

さらに既存のウェブブラウザのエンジンであるGeckoWebKitなどを用いてJavaScriptの挙動まで再現してぶっこ抜くという手法もある。 たとえば.NET FrameworkGeckoFXを用いれば「DOMのreadyイベントを待ってから解析を開始する」などといったことができる。

主なライブラリ[編集]

PHP[編集]

Ruby[編集]

.NET[編集]

  • Html Agility Pack
    かなり精度は高い。手軽。並列処理にも強い。
  • GeckoFX
    Firefoxそのものを利用する。iOSAndroidのアプリ開発で頻出するWebViewに類似するもので、HTML5かつほぼJavaScriptだけで描画を行っているページですら完璧にぶっこ抜くことが出来てしまう。

関連項目[編集]

参考文献[編集]