IPython Notebookで梅田のラーメン屋さんの統計情報を抽出するというハンズオンに行ってきました
2016/09/18
IPython Notebookで梅田のラーメン屋さんの情報をWebスクレイピングして抽出して統計情報にするというハンズオンに行ってきました。
環境構築はLinux Mint 17 MATE 64bit にIPython Notebookをインストールするをご参照ください。
※Mac、Windowsでの環境はWeb検索でお願いいたします。。。。。
ハンズオン本編
Webスクレイピングに必要なライブラリをインポートします
1 2 3 |
import scrapelib from bs4 import BeautifulSoup |
お店ごとの要素を配列にします
URLを見れば丸わかりですがとあるサイトから情報をとっています
1 2 3 4 5 |
s = scrapelib.Scraper(requests_per_minute=10) r = s.get('http://tabelog.com/osaka/A2701/A270101/rstLst/ramen/') soup = BeautifulSoup(r.text, "lxml") omises = soup.find_all("li", class_="js-cassette js-rstlst-cassete list-rst is-blocklink js-bookmark") |
お店情報の要素配列をループして欲しい情報だけの配列にします
1 2 3 4 5 6 7 8 9 10 11 12 13 |
for omise in omises: omise_tsuika = {} namae = omise.find("a", class_="list-rst__rst-name-target js-click-rdlog") omise_tsuika["name"] = namae.string point_strong = omise.find_all("span", class_="list-rst__rating-val tb-rating__val tb-rating__val--strong") if len(point_strong) > 0: if(point_strong[0].string != "-"): omise_tsuika["point_gokei"] = float(point_strong[0].string) comment = omise.find("em",class_="list-rst__rvw-count-num") if(comment.string != "-"): omise_tsuika["comment"] = int(comment.string) data.append(omise_tsuika) |
データ配列を見てみます
1 2 |
print(data) |
こんなデータが取れました。
- comment : コメント数
- name : 店名
- point_gokei : 評価点
統計分析に必要なライブラリをインポートします
1 2 3 4 5 6 |
%matplotlib inline import matplotlib.pyplot as plt import numpy as np from pandas import Series,DataFrame import pandas as pd |
データフレームを作成します
1 2 3 4 |
df = DataFrame(data, columns=['name', 'point_gokei','comment']) |
要約統計量を計算します
1 2 |
df.describe() |
相関係数を計算します
1 2 |
df.point_gokei.corr(df.comment) |
0.54091975491834943
散布図を出力します
1 2 |
plt.scatter(df.comment,df.point_gokei) |
面白い!
最後までお読みいただきましてありがとうございました!
「AWS認定資格試験テキスト&問題集 AWS認定ソリューションアーキテクト - プロフェッショナル 改訂第2版」という本を書きました。
「AWS認定資格試験テキスト AWS認定クラウドプラクティショナー 改訂第2版」という本を書きました。
「ポケットスタディ AWS認定 デベロッパーアソシエイト [DVA-C02対応] 」という本を書きました。
「要点整理から攻略するAWS認定ソリューションアーキテクト-アソシエイト」という本を書きました。
「AWSではじめるLinux入門ガイド」という本を書きました。
開発ベンダー5年、ユーザ企業システム部門通算9年、ITインストラクター5年目でプロトタイプビルダーもやりだしたSoftware Engineerです。
質問はコメントかSNSなどからお気軽にどうぞ。
出来る限りなるべく答えます。
このブログの内容/発言の一切は個人の見解であり、所属する組織とは関係ありません。
このブログは経験したことなどの共有を目的としており、手順や結果などを保証するものではありません。
ご参考にされる際は、読者様自身のご判断にてご対応をお願いいたします。
また、勉強会やイベントのレポートは自分が気になったことをメモしたり、聞いて思ったことを書いていますので、登壇者の意見や発表内容ではありません。
ad
ad
関連記事
-
Media-JAWS【第8回】「AWS人材教育について語る!」に参加しました。
Media-JAWS【第8回】「AWS人材教育について語る!」に参加しました。 …
-
JAWS FESTA 2017 Reverse X re:Birth
JAWS FESTA 2017 中四国 今年はブログタイトル「JAWS FEST …
-
DevLove関西 「プロジェクトマネジメントの勘所」に行ってきました
DevLove関西 「プロジェクトマネジメントの勘所」に行ってきました。 サイボ …
-
走った!しゃべった!呑んだ!JAWS DAYS 2016 re:cap 〜JAWS-UG大阪&関西女子会 特別合同企画〜
先日のJAWS DAYS 2016 re:cap 〜JAWS-UG大阪&関西女子 …
-
Rapidminerハンズオン勉強会に行ってきました
機械学習 OSSのRapidminerの勉強会に行ってきました。 OSS BI …
-
JAWS-UG 関西IoT専門支部「マクニカkibo + AWS IoTハンズオン」に行ってきました、というか運営メンバーとして参加してきました
2015/12/19(土)はJAWS-UG 関西IoT専門支部の記念すべき1回目 …
-
Pepperで撮影した写真をAmazon Rekognitionで分析してその結果をPepperがしゃべる ~(2)Pepper編~
Pepperで撮影した写真をAmazon Rekognitionで分析してその結 …
-
AlexaのSmart HomeをAWSで作る方法(Alexa Day 2019でのブログ)
以下は、気になったことのメモとか感想を書いています。 登壇者、発表者、主催企業な …
-
「関ジャバ Java開発のためのDocker & てらださんせきらら in MS関西」に行ってきました
「関ジャバ Java開発のためのDocker & てらださんせきらら i …
-
Alexa Day 2018で「How do we connect VUI to the real services using serverless」を聞きました
photo by Atsushi Ando Serverless for VUI …