まいにち右往左往

日記です。興味の範囲がバラバラで統一性がない日記です。だんだん備忘録っぽくなってきました。

Pythonで雪が降ってたらLINEに通知を出してみる その2 特徴点による比較

 

 

halwind.hatenablog.com

 

年が明け、だいぶ時間がたってしまいましたが、年明け早々に雪が降りましたので、前回の続きで特徴点マッチングを試していきます。当初の方針は、雪のない夜の写真と一時間ごとに更新される写真とで特徴点による比較をし、雪が積もれば差異が大きくなるので、それを検知してラインに通知を送るというものです。

 

 

基本的にはOpenCVを利用しました。
参考にさせていただいたサイトはこのあたりです。 

qiita.com

 

www.cellstat.net

 

labs.eecs.tottori-u.ac.jp

 

qiita.com

 

ここで当初から方向転換がありまして、一度雪が降ると通知が止まらなくなってしまい、うるさいことになってしまいました。

ですので、一時間前に取得した写真との比較をメインにしていきたいと思います。一時時間前と差が大きい写真が取れた場合に、ラインに通知を送ります。

 

ここで、事前に画像処理をかけたほうが検出の頻度が上がるのではないかと考え、いくつかの処理を試し、それぞれの結果をまとめてみました。

 

値が小さいほど画像の類似度が高く、値が高いほど画像がの類似度はひくくなります。マッチングのアルゴリズムはAKAZEを使用しています。
一時間前との比較なので、17時は16時との差異を表しています。

 

時間 無変換 グレースケール コントラスト調整 エッジ抽出
17:00 88 89 105 108
18:00 130 130 127 110
19:00 26 27 28 112
20:00 26 27 34 113
21:00 29 30 37 115
22:00 39 39 45 114
23:00 44 44 53 114
0:00 48 48 59 115
1:00 28 28 31 114
2:00 46 45 46 114
3:00 99 99 97 112
4:00 80 80 82 112
5:00 94 94 95 112
6:00 71 71 78 113
7:00 121 121 127 127
8:00 49 49 66 108

 

この日は、2時から朝6時まで雪が降り続きました。表の赤字の部分です。その前提で考えると、画像処理をしない「無変換」でのマッチングがけっこういけてる気がします。まあ夜間はほぼ色がない写真となっているわけで、実質グレースケールとほぼ同じですが。

18時と朝7時で値が高くなっているのは、日が沈んで暗くなった時間と、日が昇って明るくなった時間です。こう考えると、やはり通知は夜だけに絞ったほうが精度が上がりそうです。

それから、上記のサイトを参考に明るさを正規化した画像を使って特徴点を計算した時に、検出できずにdivision zeroのエラーが良く出ました。この辺りはもとの画像に由来するのかもしれませんが(夜の写真なので正規化するとコントラストも弱くのっぺりした画像になってしまう)、他で使う時のためにちょっと覚えておこう。

  

無変換での写真の移り変わりと、特徴点の差を示すとこんな感じです。あ、今回の写真はあくまで例です。

 

時間 17:00
1時間前との差異 88 

明るいせいで、細かいところまで見れるので、雪が降っていなくても一時間前と違いを検出しやすくなっているんじゃないでしょうか。

f:id:halnwind:20190220124013j:plain

 

時間 18:00
1時間前との差異 130

まあ目で見ても、暗くなったため細部が見えなくなってますし、差が大きいのがわかります。

f:id:halnwind:20190220124931j:plain

 

以降3時まであまり変化がありません。

 

時間 3:00
1時間前との差異 99

雪がうっすらつもり出しました。雪のせいで全体的に白っぽくなり、違いを検出できているようです。

f:id:halnwind:20190220125044j:plain

 

こんな感じで、大体70くらいを閾値にすればいいんじゃなかろうか、ってことで実際に運用しているコードが次のものになります。画像の前処理をいろいろ試したときのコードはまた別の記事にしよう。ともかく、これで二つの画像の特徴点間の距離=差異の度合い、が出力される訳です。この理解であっているか、自信はないけど。

あとはもう少し雪が降れば、試行錯誤して精度を上げられそうなんですが、今年は雪が少ないですねー。

  

import cv2

#Twitterからダウンロードした写真を指定 imgFile = 'picnow.jpg'
#1時間前にダウンロードしたpicnow.jpgを比較用にbasepic.jpgとしてコピー shutil.copy('picnow.jpg','basepic.jpg') shutil.copy(imgFile,'basepic.jpg')
#1回目のブログで書いた写真ダウンロードを実行
downloadPic(getMediaURL())

def judge(): baseFile = basepic.jpg' #Twitterからダウンロードしたファイルの変換後ファイル comparingFile = imgFile bf = cv2.BFMatcher(cv2.NORM_HAMMING) #コメントアウトによって比較に使用するライブラリ切り替え detector = cv2.AKAZE_create() #detector = cv2.ORB_create() #detector = cv2.BRISK_create() baseFile = cv2.imread(baseFile,0) (target_kp, target_des) = detector.detectAndCompute(baseFile, None) compFile = cv2.imread(comparingFile,0) (comparing_kp, comparing_des) = detector.detectAndCompute(compFile, None) matches = bf.match(target_des, comparing_des) dist = [m.distance for m in matches] ret = sum(dist) / len(dist) return(ret)
print(judge())

Pythonで雪が降ってたらLINEに通知を出してみる その1 Twitterからの画像の取得

冬ですね。突然ですが私が住んでいるのは長野県です。長野県の冬といえば、困るのが雪です。朝起きて、さて出勤しようかとドアを開けたとき、雪が積もっていればそこで遅刻確定です。なにしろいつもギリギリで生きていますので。

まあそんな雪国ですので、以前とある場所にウェブカメラを設置しました。職場から遠い人でも、職場の様子がわかるように、です。
雪が降ったら雪かきにこい、ということなのです。

 

これはなかなかいいものでした。布団の中にいながら、職場の様子がわかるので。

 

ですが、たまにうっかりしてしまうんですよね。天気予報が雪と言っていないのに降るときもあるからです。そして、能動的に確認をしなければいけないのです。今年も、12月の中頃に少しだけ雪が降ってひやりとしました。幸いなことに、遅刻はせずに済みましたけれども。

 

ただこういう本質的でないところに神経を使って生活するのは、好きなことではありません。ですので、最近かじっているPythonを使って、雪が振っていそうならLINEに通知が来るようにしてみました。

 

前提条件

既設のウェブカメラですが、RaspberrypiとUSBカメラでできています。1時間ごとに撮影しTwitterへ撮影時刻、撮影場所等のテキストをくっつけて投稿しています。いろんな場所におき、一つのアカウントからtweetしています。

 

処理の流れ

今回の流れですが、次のようになりました。

  1. まずはTwitterから写真をダウンロード
  2. Pythonで標準的な写真(晴れた日のやつです)と特徴点マッチングで比較
  3. 類似度が一定の基準を下回ったら(晴れた日と異なってたら)LINEで通知

3番ですが、比較するのは夜のみです。昼間雪が降ってもそりゃさすがにわかりますし。出勤前日の夜に通知がくれば心に余裕ができますし、降り始めてからの通知でも同様です。あとは、昼間の写真だと情報量が多すぎてちょっと処理がめんどくさそうというのもあります。雲の違いとかも拾ってしまいそうで。

 

Twitterからの画像の取得

今回は、まず処理1のTwitterからの画像の取得についてです。例によって例のごとく、先人の方々の知恵もお借りします。

qiita.com

 

Raspberrypiから写真をtweetする際にもお世話になりました。まあ今回はその逆で、tweetから写真をダウンロードしたい訳なのです。まずはtweetから写真のリンクを抜き出してみます。

 

あんまりリファレンスとかと異なるところはないのですが、今回はTwitterのユーザー、tweetする時間、内容も以前自分で設定したものに合わせているので、汎用性の低い内かもしれません。

まずは、ユーザーIDを指定し、countで取得するtweetの数を指定します。複数の機器からtweetしてるのですが、時間がも若干異なる設定になっており、今回は3つも取得すればその中に1つ目的のtweetがはいっているのです。

 #取得するユーザーのIDと取得するtweetの数の指定
    params = {
            'user_id': 取得したいユーザーのID, 'count': 3
            }

 

tweetjsonとして取得できるので、その中から必要なものを取り出します。が、いらないtweetもあるので、取得した3つのtweetの中から、お目当てのものを抜き出します。それには、tweetに含まれる撮影場所に欲しい場所が含まれているかで判断します。

for tweet in timeline:
        text = tweet['text']
        #tweetに含まれる撮影場所で絞込
        if 'tweetに含まれる撮影場所' in text:
            urls = tweet['entities']['media']
            mediaURL = urls[0]['media_url']
            return mediaURL

 

これで写真のURLが取得できたので、ダウンロードするだけです。

import urllib.request
import os
import datetime

def downloadPic(URL):
    #雪判別用の写真は一回使えればいいため、前回のファイルを削除
    os.remove('pic.jpg')
    urllib.request.urlretrieve(URL,'pic.jpg')

 

今回は単純に晴れた日の写真と比較して、雪が降っているかを判別できればいいので、取得した写真を取っておく必要はありません。ただ、検知率が低ければ別の方法を考えなければいけないので、その時のために写真は個別に保存することにします。

    month = str(datetime.datetime.now().month)
    day = str(datetime.datetime.now().day)
    hour = str(datetime.datetime.now().hour)
    filename = r'保存させたいパス' +'\\'
    filename =  filename + month +  day + hour +'.jpg'
    urllib.request.urlretrieve(URL,filename)

 

名前が被らないように取得時の月日時間.jpgみたいにして保存させました。検出率が低かったり過剰に検出しちゃうようなら、こうやって集めたデータを使って今度こそ機械学習に進むべきなのかもしれません。

 

まとめると、こんなコードで運用しています。

import json
from requests_oauthlib import OAuth1Session


def getMediaURL():
    Consumerkey = 'Twitterで発行したConsumer Key'
    ConsumerSecret = 'Twitterで発行したConsumer Secret'
    AccessToken = 'Twitterで発行したAccess Token'
    AccessSecret = 'Twitterで発行したAccess Secret'
    
    #tweet取得用APIのURL
    URL='https://api.twitter.com/1.1/statuses/user_timeline.json'

    Twitter = OAuth1Session(Consumerkey, ConsumerSecret, AccessToken, AccessSecret)
    
    #取得するユーザーのIDと取得するtweetの数の指定
    params = {
            'user_id': 取得したいユーザーのID, 'count': 3
            }
    
    req=Twitter.get(URL, params = params)
    timeline = (req.text)
    timeline = json.loads(req.text)

    for tweet in timeline:
        text = tweet['text']
        #今回は特定の場所の写真のみを使いたかったので、tweetに含まれる撮影場所で絞込
        if 'tweetに含まれる撮影場所' in text:
            urls = tweet['entities']['media']
            mediaURL = urls[0]['media_url']
            return mediaURL

            
import urllib.request
import os
import datetime

def downloadPic(URL):
    #雪判別用の写真は一回使えればいいため、前回のファイルを削除
    os.remove('pic.jpg')
    urllib.request.urlretrieve(URL,'pic.jpg')

    #今回の件とは別に機械学習に使えるかもしれないので、個別に名前を付けて保存
    month = str(datetime.datetime.now().month)
    day = str(datetime.datetime.now().day)
    hour = str(datetime.datetime.now().hour)
    filename = r'保存させたいパス' +'\\'
    filename =  filename + month +  day + hour +'.jpg'
    urllib.request.urlretrieve(URL,filename)

downloadPic(getMediaURL)

 

 

現在仮動作中です。あいにくと今夜は雨でしたが、一応晴れとは違うということで通知はバンバンきています。本当に雪になった時にも、ちゃんと通知がきてくれるといいのですが。こればかりは天候なので、ゆっくり待つしか……あれ?雪が若干楽しみになってきたような??

Splatoon2 の戦績をPythonでGoogle Spread Sheetに保存する

だいぶ回り道をしたせいで、時間がけっこうかかりました。こんなことをやっている時間でゲームをしたほうがウデマエも上がるんじゃないかって気がします。

それはそれとして、Googleスプレッドシートスプラトゥーン2の戦績を記録しはじめました。

長くて見づらくなってしまいましたので、改行しているときは\で明示的にしめしてあります。

 

コードの中の'GoogleAPI認証用json'は、GoogleスプレッドシートAPIを有効化した時に作成した認証情報が含まれたjsonファイルです。Pythonのファイルと同じ場所に置いてあります。

'スプレッドシートID'は事前に作成したスプレッドシートのURLに表示されたd/の後から/までの文字列です。

iksm_sessionの値はプロキシなり、端末内に保存されたcookieなり、から読み取った値です。

  

# -*- coding: utf-8 -*-

from urllib.request import build_opener, HTTPCookieProcessor
from http.cookiejar import CookieJar
import json
from oauth2client.service_account import ServiceAccountCredentials
import httplib2
from apiclient import discovery
from time import sleep #spreadSheetバトルナンバー最大値取得 def maxBattleNumber(): scope = ['https://spreadsheets.google.com/feeds',\ 'https://www.googleapis.com/auth/drive'] #Pythonファイルと同じ場所に置いたGoogleAPI接続認証用のjsonからキーを取り出し credentials = ServiceAccountCredentials.\
from_json_keyfile_name('GoogleAPI認証用json', scope) http = credentials.authorize(httplib2.Http()) discoveryUrl = ('https://sheets.\
googleapis.com/$discovery/rest?version=v4'
) service = discovery.build('sheets', 'v4', http=http,\
discoveryServiceUrl=discoveryUrl) spreadsheetId = 'スプレッドシートID' rangeName = 'A2:A' result = service.spreadsheets().values().get(\
spreadsheetId=spreadsheetId, range=rangeName).execute() values = result.get('values', []) maxValue=max(values)[0] maxValue=int(maxValue) return maxValue # URL(Splatoon API)にアクセス、JSONデータをreturn def getJson(url): cookie = "iksm_session=iksm_sessionの値" opener = build_opener(HTTPCookieProcessor(CookieJar())) opener.addheaders.append(("Cookie", cookie)) res = opener.open(url) return json.load(res) # def getButtleResults(jsonData): # 記録済みのbattle_numberを除外するためスプレッドシートのbattle_numberの最大値を取得 maxValues = maxBattleNumber() for result in jsonData["results"]: #詳細の戦績取得用のURLを作成 url = "https://app.splatoon2.nintendo.net/api/results/"\
+ result["battle_number"] resultBattleNumber = result["battle_number"] resultBattleNumber = int(resultBattleNumber) if resultBattleNumber > maxValues: battleResult = getJson(url) #結果の詳細取り出し battle_number = battleResult['battle_number'] elapsed_time = battleResult['elapsed_time'] estimate_gachi_power = battleResult['estimate_gachi_power'] my_team_count = battleResult['my_team_count'] my_team_result_name = battleResult['my_team_result']['name'] other_team_count = battleResult['other_team_count'] #以降、欲しい要素をすべて変数に入れる #SpreadSheetに入れる要素を配列にまとめる battleresult = [[battle_number,elapsed_time,\
estimate_gachi_power, my_team_count,\
my_team_result_name, other_team_count]] #spreadsheetへの書き込み scope = ['https://spreadsheets.google.com/feeds',\
'https://www.googleapis.com/auth/drive'] credentials = ServiceAccountCredentials.\
from_json_keyfile_name('GoogleAPI認証用json', scope) http = credentials.authorize(httplib2.Http()) discoveryUrl = ('https://sheets.\
googleapis.com/$discovery/rest?version=v4'
) service = discovery.build('sheets', 'v4', http=http,\
discoveryServiceUrl=discoveryUrl) spreadsheetId='スプレッドシートID' rangeName = 'A:DA' ValueInputOption = 'USER_ENTERED' body = { 'values': battleresult, } service.spreadsheets().values().append(\ spreadsheetId=spreadsheetId, range=rangeName,\ valueInputOption=ValueInputOption, body=body).execute()

sleep(5) getButtleResults(getJson("https://app.splatoon2.nintendo.net/api/results"))

 

 

まずは、事前に作成したスプレッドシートのbattle_Numberの列(今回はA列に記録してあります)の最大値を取得します。この最大値より大きいbattle_Numberの戦績は、シートに記載されていない新しい戦績ということになるのです。次の関数の部分ですね。 

#spreadSheetバトルナンバー最大値取得
def maxBattleNumber(): 

 

次に戦績の概要を取得します。 

def getJson(URL):

 "https://app.splatoon2.nintendo.net/api/results"からは、戦績の概要がjsonとして取得できます。jsonの中は、一戦ごとにbattle_numberが振られたresultsに分かれています。まずはそのbattle_numberから新しい記録かどうかを判別したいので、取得したjsonを引数に、次の関数に移ります

def getButtleResults(jsonData): 

この中で、maxBattleNumber()で取得した、スプレッドシートに記録されたbattle_numberの最大値と比較しています。その結果、まだスプレッドシートに記載されていない戦績であれば、

"https://app.splatoon2.nintendo.net/api/results/" + result["battle_number"]

からさらに詳細の戦績を取得します。
詳細の戦績を取得後は、記録したい要素をいったん変数にいれてから配列にまとめ、スプレッドシートに書き込みます。一件ずつ書き込まないのはGoogleAPIの制限が100秒間に100件までとなっているからですね。

 

バトル一回分のデータを書き込んだら、次のバトルのデータを取得するまで5秒の待機をさせています。もともと公開されていないAPIを叩いているので、できるだけ負荷はかけないような形にしたかったのです。どうせ自動的にデータを集めるので、そこにきて多少の待ち時間が発生しても、運用上は問題ないですし。

 

反省点として、スプレッドシートへの書き込みは、それだけで一つの関数にまとめたほうがわかりやすかった気がします。まあでも動いているのでとりあえずはいいか。

 

これでしばらくはゲームに専念してデータをためることにします!

遊べるぞー!

イカリング2の情報収集準備2

iksm_sessionのほうはいったんおいておきまして、早々に情報収集へと切り替えていきます。

 

halwind.hatenablog.com

 

もう3か月も前になりますが、iksm_sessionがわかっていればPythonに戦績データをjson形式でダウンロードさせられるようになりました。ただこのままだと一戦ごとにバラバラのファイルになってしまいます。

 本当はデータベース作ってその中に追記していくのがいいのかもしれません。ですが、まとめたデータを目で見てみたい気もします。そんな訳で、とりあえずはGoogleスプレッドシートに集めたデータを追記していくという方針にしました。

 

基本的なやり方はこちらを参照。

qiita.com

 

ここまでは、サンプルどおりに躓かずにやってこれました。取得した戦績の各要素を地道に書き込んでいけば結果は得られそうです。どうせ頑張るのは自分でなくてパソコンですし。

が、ここでGoogleAPIの制限が問題になってしまいました。

 

Usage Limits  |  Sheets API  |  Google Developers

 

リンク先を確認すると、100秒間に100リクエストまでとのことです。
ガチバトルに関係する要素は、単純にユーザーごとのキル数、デス数、ブキ種類だけでも3要素×8プレーヤーで24リクエストにもなってしまいます。きちんと多くの要素を登録するには、1戦ごとのデータはまとめて書き込んでしまいたいところです。

 

参考にしたサンプルではgspreadというパッケージを利用していましたので、情報を求めてリファレンスを確認してみます。

gspread — gspread 3.1.0 documentation

 

cell_list = worksheet.range('A1:C7')

for cell in cell_list:
    cell.value = 'O_o'

# Update in batch
worksheet.update_cells(cell_list)

 

 このままCell.valueに値を入れると、rangeで指定した範囲にたしかにデータが入りますし、APIの使用状況をみても回数は1回とカウントされていそうです。なんですが、範囲内のセルが全部同じ値になってしまうんですよね。配列つくってそれを入力とかできればいいのですが。そもそもサンプルの'O_o'ってなんでしょう……hogeとかfugaみたいな?

 

いまいちわからなかったので、次はGoogleスプレッドシートAPIリファレンスを確認です。

 

Basic Writing  |  Sheets API  |  Google Developers

 

読んでみると異なる値を配列に入れて、一括で更新できそうです。
結局gspreadは使わなそうかな。

 

{
  "range": "Sheet1!A1:E1",
  "majorDimension": "ROWS",
  "values": [
    ["Door", "$15", "2", "3/15/2016"],
    ["Engine", "$100", "1", "3/20/2016"],
  ],
}

 

このvaluesの部分に、jsonから抜き出してきた結果をいれてあげればよさそうです。めどが立ちましたので、いったん入れ物となるスプレッドシートを作成しました。jsonに含まれているデータで、記録するものは次のとおりとします。

 

まずは全体的な項目として、ガチマッチのルール、ガチパワー、ステージ、勝敗、チームごとの進めたカウント、かかった時間。
これに各プレーヤーごとにウデマエ、ブキ、サブ、スペシャルの種類、スペシャル使用回数、キル数、アシスト数、デス数、塗ポイントを付け加えます。

プレーヤーごとのIDも面白そうなので追加し、ユニークなキーになってるっぽいbattle_numberで管理することにしました。

あとは頑張ってコードを書いていくだけです。

iksm_sessionを自動更新したい その4

スプラトゥーン2、ウデマエが1上がっては2下がり、2上がっては1下がる。結局平均は同じ、といった泥沼状態になっています。
この状況を打破するためにも、キャプチャボードを買って動画を撮影し、そこから学んでいく必要があるかもしれません。

 

なんてことを考えながら、ふらふらとネットをさ迷っていたところ、こんなブログが目に入りました。

memoran.net

 

自分でデータを取得しなくても、stat.inkから引っ張ってこれそうです。いや、その前に本文の中で、mitmproxyを使って普通にiksm_sessionを抜き取ってますね。記事も新しいし。

 

halwind.hatenablog.com

 

前回、root化した端末のプレインストールされた証明書に、mitmproxyの証明書を入れることで、Android7以降の端末でも不完全ながら通信内容の取得はできました。
と、いうことはです。Android7以降のセキュリティ強化が影響して、任天堂アプリの通信内容を取得できないという考えはそんなに的外れではないんじゃないでしょうか。それならより古いバージョンのAndroid端末を使うとすべて解決するのでは??

 

そんな訳で古いNexus5を引っ張り出してきて使ってみると、ちゃんと通信内容を取得できました。……今まで無駄に遠回りしてきていたんですね。ここでようやくトークンfの生成を考えるところまでたどり着けました。端末がなくてもエミュレータ使えばなんとかなりそうですね。

 

あと、root化した端末で任天堂アプリを使うためにMagiskをいれていましたが、証明書関連のツールもあったので覚書としてはっておきましょう。そのうち使うこともあるかもしれません。

 

github.com

 

 

iksm_sessionも楽に再取得できるようになったので、戦績のデータ解析も並行して進めていきましょう。このままトークンfにこだわってしまうと、本題になかなかたどりつけなくなってしまいそうですから。

iksm_sessionを自動更新したい その3

だいぶ時間がたってしまいました。記事のタイトルはその3となっていますが、そろそろギブアップしそうです。ざっくり今までの流れをまとめると、こうです。

 

  1. アプリの通信内容からiksm_sessionというcookieの値を取り出すと、戦績その他をデータで取得できるぞ。
  2. データ取得から整理までPythonで処理してみよう。
  3. iksm_sessionはどうやら定期的に更新されるみたいなので、その更新までPythonにいれこんでみよう。
  4. アプリ内で計算しているトークンfの値が、iksm_session更新に必要みたいだ。
  5. アプリを解析してみようか……ってところで更新があり、アプリの通信内容の確認ができなくなってしまった。

 

さて、まずは何をするにも通信内容の確認が必要です。
過去にたてた仮説をもとに、試行錯誤をしていきます。

 

halwind.hatenablog.com

 

アプリが更新されて以降、root化された端末では起動できなくなってしまいましたが、まずはそこを回避しなければなりません。

ここはアプリごとにroot化を隠す機能があるroot管理アプリを導入して回避しました。

 

次に通信内容を確認するためにたてたプロキシの証明書を、AndroidのプレインストールのCA証明書と同じ場所に入れました。

pem形式の証明書をこちらの記事を参考にリネームし、既定の場所に保存しました。

 

otameshi61.hatenablog.com

 

どうやらちゃんと動いているようで、アプリの通信が確認できるように……できるように……あれ?
確認できなくはないのですが、任天堂アプリの立ち上げ、ログインまではキャプチャできてるのですが、スプラトゥーン2の戦績の取得は途中で通信が止まってしまいできないみたいです。

このまま頑張るか、画像解析のほうに早々に切り替えるか、悩ましいところなのです。

気が付いたらGoPro HERO 2018が手元にあった話

気付いたら、GoPro HERO 2018が手元にありました。ただし、購入後すぐにGoProHERO7が出るという、Fitbit Versaを買ったときと同じ状態にはなってしまいましたが……。

 


f:id:halnwind:20181113124411j:image

 

GoProを買ってから登山に一回、ロングライドに二回、マラソン大会に一回、その他ちょっとしたお出かけに数回使ってみたのですが、初心者用アクションカメラとしてはすごくいいものでした。お値段も7の半分ほどですし、公式サイトから購入すると32GBのマイクロSDがついてくるのです。
すばらしくお買い得!

 

使い始めて一番実感したのは、持ち出すハードルの低さです。コンパクトデジカメよりはるかに気軽に使えるので、使用頻度がめちゃくちゃ上がりました。今のGoProはハウジングなしで防水になってるので、天候や使うシチュエーションを気にせずに気軽に持ち運べるのが大きいですね。あとはカメラだと「出して撮ってしまう」、という作業が発生しますが、アクションカメラは基本的にマウントに固定してるので、「録画ボタンを押す」というワンアクションで使えてしまいます。
その他にも、写真よりも見返す頻度があがりました。これは人によるのかもしれませんが、写真だと撮ってちょっと編集してSNSにあげて終わりでした。動画だと、撮影した時に会話も一緒に記録されるので、その時の空気がよりリアルに感じられます。

その分デメリットもあり、気軽に取れるためファイルが増えますし、動画は編集しないと面白みが少ないため写真に比べて作業時間が膨大になってきています。まだ一本目の動画すらできあがっていないんです。買ってから1か月以上たっているのに。

 

もう少し、本腰をいれて動画に取り組まねば。
スプラトゥーンの解析とかも手があまりついてないですし、時間が、時間が足りません。