IPython Notebookで梅田のラーメン屋さんの統計情報を抽出するというハンズオンに行ってきました
2016/09/18
IPython Notebookで梅田のラーメン屋さんの情報をWebスクレイピングして抽出して統計情報にするというハンズオンに行ってきました。
環境構築はLinux Mint 17 MATE 64bit にIPython Notebookをインストールするをご参照ください。
※Mac、Windowsでの環境はWeb検索でお願いいたします。。。。。
ハンズオン本編
Webスクレイピングに必要なライブラリをインポートします
1 2 3 |
import scrapelib from bs4 import BeautifulSoup |
お店ごとの要素を配列にします
URLを見れば丸わかりですがとあるサイトから情報をとっています
1 2 3 4 5 |
s = scrapelib.Scraper(requests_per_minute=10) r = s.get('http://tabelog.com/osaka/A2701/A270101/rstLst/ramen/') soup = BeautifulSoup(r.text, "lxml") omises = soup.find_all("li", class_="js-cassette js-rstlst-cassete list-rst is-blocklink js-bookmark") |
お店情報の要素配列をループして欲しい情報だけの配列にします
1 2 3 4 5 6 7 8 9 10 11 12 13 |
for omise in omises: omise_tsuika = {} namae = omise.find("a", class_="list-rst__rst-name-target js-click-rdlog") omise_tsuika["name"] = namae.string point_strong = omise.find_all("span", class_="list-rst__rating-val tb-rating__val tb-rating__val--strong") if len(point_strong) > 0: if(point_strong[0].string != "-"): omise_tsuika["point_gokei"] = float(point_strong[0].string) comment = omise.find("em",class_="list-rst__rvw-count-num") if(comment.string != "-"): omise_tsuika["comment"] = int(comment.string) data.append(omise_tsuika) |
データ配列を見てみます
1 2 |
print(data) |
こんなデータが取れました。
- comment : コメント数
- name : 店名
- point_gokei : 評価点
統計分析に必要なライブラリをインポートします
1 2 3 4 5 6 |
%matplotlib inline import matplotlib.pyplot as plt import numpy as np from pandas import Series,DataFrame import pandas as pd |
データフレームを作成します
1 2 3 4 |
df = DataFrame(data, columns=['name', 'point_gokei','comment']) |
要約統計量を計算します
1 2 |
df.describe() |
相関係数を計算します
1 2 |
df.point_gokei.corr(df.comment) |
0.54091975491834943
散布図を出力します
1 2 |
plt.scatter(df.comment,df.point_gokei) |
面白い!
最後までお読みいただきましてありがとうございました!
【PR】 「AWS認定試験対策 AWS クラウドプラクティショナー」という本を書きました。
【PR】 「AWSではじめるLinux入門ガイド」という本を書きました。
【PR】 「ポケットスタディ AWS認定 デベロッパーアソシエイト」という本を書きました。
【PR】 「AWS認定資格試験テキスト&問題集 AWS認定ソリューションアーキテクト - プロフェッショナル」という本を書きました。

開発ベンダー5年、ユーザ企業システム部門通算9年、ITインストラクター5年目でプロトタイプビルダーもやりだしたSoftware Engineerです。
質問はコメントかSNSなどからお気軽にどうぞ。
出来る限りなるべく答えます。
このブログの内容/発言の一切は個人の見解であり、所属する組織とは関係ありません。
このブログは経験したことなどの共有を目的としており、手順や結果などを保証するものではありません。
ご参考にされる際は、読者様自身のご判断にてご対応をお願いいたします。
また、勉強会やイベントのレポートは自分が気になったことをメモしたり、聞いて思ったことを書いていますので、登壇者の意見や発表内容ではありません。
ad
ad
関連記事
-
-
「Fin-JAWS 第13回 PCI DSS と AWS の混ぜご飯」リモート開催に参加しました
Youtube Liveでリモート開催の「Fin-JAWS 第13回 PCI D …
-
-
Alexa Day 2018にサポーターの中の人として(初)参加しました
2018/2/11に神戸三ノ宮のスペースアルファ三宮で開催されたAlexa Da …
-
-
Apple Silicon M1 MacBook ProにJupyter Notebookをインストールしました
Python – Jupyter NotebookをMac M1 搭 …
-
-
Developers Summit 2018 「夢は正夢〜「野球エンジニア」になるまでの歩み」を聞きました
以下は、思ったことや気になったことをメモしていますので、必ずしも登壇者の発表内容 …
-
-
実録 JAWS DAYS 2016 ~スタッフ,RoadTrip,懇親会LTで参加しまして~
2016/3/12 参加してまいりましたJAWSDAYS2016 スタッフとして …
-
-
DevLOVE関西「事業会社の現場を知ろう~モノタロウ編~」に行ってきました
DevLOVE関西「事業会社の現場を知ろう~モノタロウ編~」 モノタロウさんプラ …
-
-
Alexa Day 2018で「Alexa and Machine Learning on AWS」を聞きました
Photo by 金春さん 20180211 alexa day 2018 Al …
-
-
JINS MEME DEVELOPER HANDS-ON #5に行ってきました
世界初、自分を見るアイウェアの「JINS MEME」のSDK勉強会に行ってきまし …
-
-
JAWS DAYS 2021の思い出(配信とランニング)
JAWS DAYS 2021前夜 前日は移動があったので、前夜祭をモバイルで見聞 …
-
-
DevLOVE関西「プログラミングを楽しく続けるための健康Hack」に行ってきました
DevLOVE関西「プログラミングを楽しく続けるための健康Hack」に行ってきま …