smellman's Broken Diary

クソみたいなもんです

僕とJavaとコンピュータとおばあちゃん

この話、どっかで文字にした気がするんだけど、探しても見当たらなかったので文字に起こしてみる。
ちょっと酒入ってるので雑だけどね。

この話は僕がコンピュータの仕事をちゃんと目指す間接的なきっかけとなった話です。

僕は高校入学当時は薬剤師を目指していた。元々医療系の家系というのもあったんだけど、血を見るのが嫌いというのがあって、まだちょっとできる科学の知識が使えるかもしれないというところから医療系なら薬剤師しかできないだろうと思ってた。
でも、高校時代に生物の先生が本当にやばくて、生物には近づきたくないというのもあって、完全にやりたいことが数学or物理という方向になってしまった。
ちなみに英語も国語も留年ギリギリみたいな状態で、数学系以外はまったくだめだった。
そんなこんながあって、高校二年の頃には得意な分野を活用するには物理演算などの活用できる3Dゲームの分野と思い、ゲームプログラマになりたいという気持ちがあった(ちなみにゲームプログラマは昔も目指そうと思ったけど小学校、中学校、高校全部でBASICで完全に挫折してた、行番号が本当にわからなかった)。

そんなときにおばあちゃんが亡くなった。

僕自身おばあちゃん子って感じであった。
中学時代もおばあちゃんと一緒にお風呂によく入っててよく背中の流し合いをしてたし、小学校の頃に戦争の話とかを聞くとよくおばあちゃんの部屋に言ってはいろいろ聞いていた。
関東大震災なんかの話もよく聞いてたけど、正直大変だったという印象以外思い出せなくて申し訳ないという気持ちがある。

おばあちゃんが体調が悪くなって入院したのは高校一年のころ。
それから学校から時間があればおばあちゃんが入院してる病院(僕が生まれた病院で、親父の元勤務先でもあってすごく大切な場所)に自転車で行っていた。

たぶん、家族の中で最後の一年を一番過ごしたのが僕だったと思う。
でも、亡くなる時だけは立ち会えなかった。
僕が部活を終えてから家に帰ったら誰も居なくて、みんなが立ち会いに行って最後を看取ったけど、僕だけは家に居たって感じだった気がする。

その後はお通夜があって、僕と親父の二人で一晩を過ごした。もうその時のことは覚えてない。

そんなことがあって、次の日はお葬式。
たくさんの人たちがやってくるんだけど、正直まだ二十歳未満の身というのもあり、周りの人の対応とかは両親や姉たちがやるというのが暗黙の了解だった。

そんな時に親父が僕と妹に「暇だろうから何か暇つぶしを買ってこい」と二人に500円玉を渡してくれた。
丁度斎場の近くに今は潰れたTSUTAYAがあって、そこに本屋も併設されていたのでそこに本を買いに行った。

その時に出会ったのが「Hello! PC」という雑誌でした。
いわゆるDOS/V系の雑誌ではあったんだけど、その時の特集がJavaだった。

プログラミングというのは今まで僕の中ではBASIC以外のものがあるというのは知らなくて、僕が本当にわからないと思っていたもの以外でもプログラミングができるんだというのを知ってすごく興味を持った。
たしか480円だったので、そのまま親父にもらったお金を使って購入した。

ちなみに、当時はWindows自体は高校の部室には導入した(なお、DigitalというかCompaqのマシンだった)んだけど、何をすればいいのかさっぱりなものだった。
あと、部活の親友はかなりのMac信者で、「この水晶板をこれに変えればこれぐらいクロックアップができる」みたいな謎の勧誘を高校の先生にするような人で、Windowsを使いこなすような状況じゃなかった。

で、僕は生まれて初めてコンピュータ雑誌を買うんだけど、そこにすごく興味深い連載があった。
それはPC-UNIXの連載です。
当時は丁度JEのレポジトリがぶっ飛んでしまってPJEが始まったとかそんな内容だったと思う。
1997年の時です。

まったく知らないUNIXという言葉、FreeBSDLinuxという僕の知らないOSの名前(知ってたのはWindowsMacOSだけだった)にものすごい興奮を覚えた。
その連載に書いてあったのは無骨なコマンドラインばかり。
この意味を理解したら何かが変わるのかなと思った。
でも、それ以上にその時はJavaという謎の存在を理解しようというのが強かった。

そのあと、小遣いを使ってHello! PCを買うんだけど、丁度そのタイミングで親父がパソコンを買ってくれると言ってくれた。
僕の家には書院とPC-9801(姉の所有物)のノートがあったんだけど、前者はブラインドタッチの練習用途もしくはカセットテープのタイトル打ちがメインで、後者は本当に使い道がわからなくてフロッピーを挿して起動したら動いたぷよぷよもしくはBio100%のゲームだけしか使ってなかった。
僕にとっては初めてのパソコンです。
Hello PC!で得た知識をフル動員した。
このタイミングならISAが一杯ついてるやつのほうがいい!!!!!!!

敗北です。

その当時MMX200MHzのマシンでありながらPCIが2つに対してISAが5つという変なの買ったんです。
言い訳させて下さい。
Hello PC!に乗ってるボードでPCIのってグラフィックぐらいだからISAの方がいろんなデバイスあっていいじゃんって思ったんですよ!!!!
まさか次の年にPCIのサウンドカードが出始めるとは!!!!

まぁこの話は老いておこう。
老いです。

とりあえず秋葉原のアウトレットのお店で30万円ほどかけてIBMのマシンを購入しました。
ついでに、VectorのCD-ROM8枚組も一緒に買いました。
あと、アルプスのプリンターも買いました。テリー伊藤が広告やってたやつです。
品質はよかったけどランニングコストが泣けました。
ちなみに小学校からの親友が最初に就職したのもアルプスなんだよね。びっくりしたわ。

で、一ヶ月ほどはとりあえずIBMのマシンが家にあるだけで、何をしていいのかわからないのでとりあえずレジストリエディタを弄って遊んでました。
あと、VectorのCD-ROMの中を調べてとりあえず高音質で音楽が聞けるというのでMOD関係のプレイヤーで楽しんでました。303tekの初期のプレイヤーです。これ覚えてるの本当にもういないと思う。

その後一ヶ月してからネットが開通しました。
最初のインターネットはJustNetでした。
JustSystemのアレです。
JustViewの話は辞めよう。

とりあえず、まずJDKをダウンロードしました。デカイ。
その後、MOD関係のアーカイブを辿っていき、おもむろにrarファイルをダウンロードしました。
あとで気づいたんだけど、英語がわからずこの時ダウンロードしたのはMODファイルじゃなくて音源ファイルでした。
僕が生まれて初めて展開したのがrarという状況になったのも先にMODという変な文化に触れたからです。
MOD万歳。

で、Javaに戻るんだけど、インターネットに繋がったことで、JDKを入手できてやっとHello! PCに書いてあるサンプルコードを打てるようになりました。今思えばどっかの書籍から入手できそうなものだけど、当時は全然わからなかったんですよ。
で、ひたすら打ちまくるんだけど、とりあえずサンプル動かしたあとに、何故こういう仕組みなのかわからないというのが強く残りました。
いきなりオブジェクト指向とかAppletとかは辛かったのかもしれません。
というわけで高校の友達(Blenderの日本語化をやってるやつ)から「この前こういうクラック事件があってTcl/Tkが使われたらしい」みたいな情報を聞いてTcl/Tkを使い出したりとか、8086とかのアセンブラチャンレンジしたりとかPerlの勉強始めて挫折したりとかいろいろありました。
一番高校の時に知識を得たのは前述の高校の友達からFreeBSD徹底入門を借りて2日で読破したことです。まさかその本の著者のあさたくさんがいるBBQに参加するとはその時はまったく想像付かなかったと思います(というか亡くなられたというのがもっとつらいけど)。

まぁ、そんなこんなでJavaがきっかけでプログラマ目指せるかも!って思ったのが高校時代でした。
少なくともそのきっかけになったのはおばあちゃんの死です。
それがきっかけでずいぶん早い時期にPC-UNIXLinuxにも出会えました。
MODミュージックもたぶんそのタイミングが無ければ出会えなかったと思います。
僕は今MODのトラッカーがベースになった音楽を良く聞いています。breakcoreとか!

僕にとってはコンピュータにある何もかもはおばあちゃんからの最後の贈り物だと思えるのです。
わりと辛いことがあっても、やはりこの思いが支えになってくれてるところはあります。
そんなわけで、おばあちゃんありがとう!

タイルの説明によく使うあの図を作成するスクリプト

タイルの説明でよくこんな画像ありますよね。

f:id:smellman:20141129040615p:plain

f:id:smellman:20141129040624p:plain

f:id:smellman:20141129040636p:plain

いちいち作るのが面倒だと思うので、一発で作成するスクリプトを書きました。


gist30fa094aa256e25489d9

zoomレベルの範囲を変更すればもっといろいろ作れますが、サーバの負荷があまりかからぬようお願いします。

OSMのデータをつっこんだPostGISとTileStacheを組み合わせてベクタタイルを試してみた

手元でベクタタイル動かせたら面白いなぁというよくわからない欲求を持っていたんですが、ついうっかりやってしまいました。

今回使うのは以下のプログラム。

TileStache
軽量なタイルサーバ兼キャッシュサーバ
OSM.us-vector-datasource
http://openstreetmap.us/%7Emigurski/vector-datasource/ でつかわれてるTileStacheの設定

なお、今回はOSM.us-vector-datasourceにmacports向けの設定を書きつつ、PostGIS2に対応したものを用意しました。

前提条件として、前回の記事で書いた内容にあるデータを突っ込んでいる状態からスタートです。

MacPorts環境にosm2pgsql入れてOpenStreetMap CartoをTilemillで動かしたって話 - smellman's Broken Diary

まずは作業場所を作成します。

mkdir TileStache
cd TileStache
virtualenv-2.7 env
source env/bin/activate

次に依存関係の解消します。MacなのでPILの代わりにPillowを入れます。また、Shapelyはpipで入れようとするとgeos_c.hが見つからないとエラーになるので手動で入れています。

pip install -U Pillow
pip install -U modestmaps simplejson werkzeug
pip install psycopg2
git@github.com:Toblerity/Shapely.git
cd Shapely
python setup.py install
cd ..

次にTileStacheのインストールです。

git@github.com:TileStache/TileStache.git
cd TileStache
python setup.py install
rehash
cd ..

そして、OSM.us-vector-datasourceを導入します。今回は僕のレポジトリから取得します。

git clone git@github.com:smellman/OSM.us-vector-datasource.git local_vector_datasource
cd local_vector_datasource
git checkout macport_postgis2

最後にサーバの起動なんですが、標準のtilestache-server.pyだとアクセスが多いとsocket.pyでError 32が出てしまうので、gunicornを使って起動をします。

pip install gunicorn
gunicorn -b 127.0.0.1:8080 "TileStache:WSGITileServer('/Users/btm/develop/osm/TileStache/local_vector_datasource/tilestache.cfg')"

あとは確認をします。

curl http://127.0.0.1:8080/highroad/15/29088/12902.json

無事にJSONが帰ってきたら成功です。

では、d3.jsのVector Tilesのサンプルを参考にURLを127.0.0.1に向けて、最初の表示位置を日本にしてみます。gistからダウンロードして下さい。

https://gist.github.com/smellman/400adff2dece5f6854d6

これをブラウザで開いて上手く行けばOKです。

f:id:smellman:20141018030023p:plain

明日のOSC2014 Tokyo/FallのOpenStreetMapのブースでこちらのデモを行うと思います。ぜひ足を運んでみてください。

追記

ベクタタイルに必要なデータが足りなかったので補足します。

まず、OSM.us-vector-datasource にdataというディレクトリがあるのですが、この中のファイルを取り込む必要があります。

cd OSM.us-vector-datasource
cd data
unzip land-usages-naturalearth.zip
unzip water-areas-naturalearth.zip
PATH=/opt/local/lib/postgresql93/bin:$PATH ./shp2pgsql.sh|psql -U postgres gis

次にwater-polygonsを取り込みます。これは openstreetmapdata.com が配布してるWater PolygonsのShapeファイルを取り込みます。

mkdir water-polygons
wget http://data.openstreetmapdata.com/water-polygons-split-4326.zip
unzip water-polygons-split-4326.zip
/opt/local/lib/postgresql93/bin/shp2pgsql -dID -s 900913 -W Windows-1252 -g the_geom water-polygons-split-4326/water_polygons.shp water_polygons|psql -U postgres gis

あと、topojsonでも試してみました。

f:id:smellman:20141018061515p:plain

デモは全てgithubレポジトリにまとめました。

smellman/osm_vector_tiles_local_demos · GitHub

MacPorts環境にosm2pgsql入れてOpenStreetMap CartoをTilemillで動かしたって話

とある事情によりOpenStreetMap Cartoを手元で動かす必要があり、また個人的にもOpenStreetMapのデータが入ったPostgreSQLが欲しかったのでセットアップをしてみた。

まず、osm2pgsqlのインストールで必要なライブラリをいれる。

sudo port install protobuf-c protobuf-cpp
sudo port install proj47

他にもgeosとかいろいろいれる必要がありますが、qgisとかMacPortsで入れていればだいたい入ってると思う(何

あと、PostgreSQL 9.3+PostGISも別途入れておきます。

次にosm2pgsqlのインストールです。

git clone git://github.com/openstreetmap/osm2pgsql.git
cd osm2pgsql
./autogen.sh
./configure --with-proj=/opt/local/lib/proj47 \
  --with-protobuf-c-inc=/opt/local/include/google/protobuf-c
  --with-protobuf-c-lib=/opt/local/lib
  --with-protobuf-c=/opt/local
make
sudo make install

ポイントとなるのはconfigureで必ずproj47とprotobuf-cの場所を指定することです。特にprotobuf-cはincだけ指定してもダメだったりしてはまったりした。

次にpostgresqlgisというデータベースを作成します。注意点としてはMacPortsのデフォルトなので権限がかなり緩いです。

sudo su postgres -c 'createdb gis'
psql -U postgres -d gis -c 'CREATE EXTENSION postgis; CREATE EXTENSION hstore;'

あとは日本のデータをosm2pgsqlを使って投入します。
なお、以下のものでだいたい10GBぐらいメモリ消費するっぽいのでそれなりに気をつけてください。

wget http://download.geofabrik.de/asia/japan-latest.osm.pbf
osm2pgsql --create -U postgres -H 127.0.0.1 --database gis --slim -C 8000 --flat-nodes fuga japan-latest.osm.pbf

では、次にopenstreetmap-cartoを導入します。

git clone git@github.com:gravitystorm/openstreetmap-carto.git
cd openstreetmap-carto
./get-shapefiles.sh

get-shapefilesはopenstreetmap-cartoのproject.mmlから参照されるファイルをセットアップするために必ず実行します。

あとはTilemillのprojectフォルダ(~/Documents/Mapbox/project)にopenstreetmap-cartoのディレクトリをまるごとコピーします。

次にTilemillを起動するとOpenStreetMap Cartoというプロジェクトが増えてるので開きます。

f:id:smellman:20141016004602p:plain

するとこけます。
これはPostgreSQLのユーザが同じではないからです。
手っ取り早く動かすにはPGUSER変数を使いましょう。

PGUSER=postgres open /Applications/TileMill.app

これでうまく...いきません。

f:id:smellman:20141016004623p:plain

上記のエラーではNAMEという属性が無いというのです。

実はさっきopenstreetmap-cartoのget-shapefiles.shを実行した時に次のようなエラーが起きてました。

processing ne_10m_populated_places...
ERROR 1: Failed to create field name 'SCALERANK' : cannot convert to UTF8
ERROR 1: Failed to create field name 'NATSCALE' : cannot convert to UTF8
ERROR 1: Failed to create field name 'LABELRANK' : cannot convert to UTF8
ERROR 1: Failed to create field name 'FEATURECLA' : cannot convert to UTF8
ERROR 1: Failed to create field name 'NAME' : cannot convert to UTF8
ERROR 1: Failed to create field name 'NAMEPAR' : cannot convert to UTF8
ERROR 1: Failed to create field name 'NAMEALT' : cannot convert to UTF8
ERROR 1: Failed to create field name 'DIFFASCII' : cannot convert to UTF8
...

これはogr2ogrで処理してる部分でどうも変換できないというものなんですが、なんとなくogr側の問題な気がします。

とりあえず動かすためにogr2ogrから--configの指定を削除します。

diff --git a/get-shapefiles.sh b/get-shapefiles.sh
index 65fc306..acc6087 100755
--- a/get-shapefiles.sh
+++ b/get-shapefiles.sh
@@ -69,7 +69,7 @@ unzip $UNZIP_OPTS data/land-polygons-split-3857.zip \
 #process populated places
 echo "processing ne_10m_populated_places..."
 rm -f data/ne_10m_populated_places/ne_10m_populated_places_fixed.*
-ogr2ogr --config SHAPE_ENCODING UTF8 data/ne_10m_populated_places/ne_10m_populated_places_fixed.shp data/ne_10m_populated_places/ne_10m_populated_places.shp
+ogr2ogr data/ne_10m_populated_places/ne_10m_populated_places_fixed.shp data/ne_10m_populated_places/ne_10m_populated_places.shp
 
 #index
 echo "indexing shapefiles"

これであとはget-shapefiles.shを実行します。

processing ne_10m_populated_places...
Warning 1: One or several characters couldn't be converted correctly from UTF-8 to ISO-8859-1.
This warning will not be emitted anymore.

上記のようにWarningが出ますが、とりあえずはOKとしておきます。

これであとは先ほどと同様にTilemillのprojectフォルダにopenstreetmap-cartoディレクトリをコピーしてから、PGUSERを指定した状態でTilemillを起動します。

f:id:smellman:20141016004656p:plain

無事起動しました。

f:id:smellman:20141016004708p:plain

時間はかかりますが日本のデータは入れているのでちゃんとスタイルが入った状態で表示されます。

さて、ここで編集...と思ったら速攻困ったことになります。

f:id:smellman:20141016004722j:plain

mmsファイルが4つしか表示されていません。

How to handle overflowing stylesheet tabs? · Issue #190 · mapbox/tilemill · GitHub

具体的にはこのバグなんですが、ここに手っ取り早い解決方法があるので手動で直してしまいます。

vim /Applications/TileMill.app/Contents/Resources/assets/css/style.css

ここの.tabsの定義を以下のようにします。

.tabs {
  float:left;
  position:relative;
  /* overflow:hidden; */ /* comment out */
  overflow-y: scroll; /* add */
  height:30px;
  padding-left:10px;
  }

やってることはoverflowの定義をコメントアウトしてoverflow-y: scroll;を追加するというものです。

これで起動します。

f:id:smellman:20141016004802j:plain

スクロールバーが出てきて無事に最初に見えていたファイル以外が編集が可能となりました。

とりあえず新しいUIのものをリリースして欲しいのだけど、どうもデスクトップ版Tilemillは今後出てくるのかどうかが微妙な気がします。Mapbox Studioも出てしまったし...

gdal2tiles.pyでコケるパターンの対処法

gdal2tiles.pyを使っているとたまにこんなエラーでコケることがあります。

ERROR 5: Illegal values for buffer size
ERROR 5: Illegal values for buffer size
Traceback (most recent call last):
  File "/usr/bin/gdal2tiles.py", line 2262, in <module>
    gdal2tiles.process()
  File "/usr/bin/gdal2tiles.py", line 478, in process
    self.generate_base_tiles()
  File "/usr/bin/gdal2tiles.py", line 1264, in generate_base_tiles
    dstile.WriteRaster(wx, wy, wxsize, wysize, data, band_list=list(range(1,self.dataBandsCount+1)))
  File "/usr/lib/python2.7/dist-packages/osgeo/gdal.py", line 796, in WriteRaster
    buf_pixel_space, buf_line_space, buf_band_space )
TypeError: not a string

これが起きるのはどうも元データの解像度が良くないというのがあって、画像のサイズを変更するとうまくいくというなんでそうなったんだみたいなFAQが出てきます。そして本当に画像のサイズを変更するとうまくいくのでなんじゃこりゃっていう感じなんですが、とりあえず対応手順をメモしておきます。

今回利用するのは地球地図のフィリピンの標高データです。というか僕が試してコケたのがこのデータだけなんですが。

地球地図については省略というか、今月末のFOSS4G 2014 Tokyoでセッションをやるので来ていただきたく(宣伝)。

さて、まずダウンロードしたzipファイル(gm-phl-el_1_0.zipという名前のはず)を解凍します。

解凍するとglobalmというディレクトリができます。
この中の globalm/area/raster というところにbilファイルが転がっているので、とりあえずこいつを一つのGeotiffにします。

gdalbuildvrt --config GDAL_CACHEMAX 1024 merged.vrt globalm/area/raster/*.bil
gdal_translate -a_srs EPSG:4326 --config GDAL_CACHEMAX 2048 merged.vrt merged.tif

次にこのファイルの解像度を変更してやるんですが、先に大きさを調べます。

gdalinfo merged.tif

出力でSize is というところをチェックします。

Size is 1800, 3000

次にこのファイルをgdalwarpで変換をかけます。ここでのポイントは2つあります。

  1. -ts オプションで倍の解像度にする(倍じゃなくていいけど)
  2. -srcnodata オプションをつけてno dataとして扱う値をちゃんと指定しておく。(これをしておかないと変なデータになる)
gdalwarp -overwrite -s_srs EPSG:4326 -r near -ts 3600 6000 -of EHdr -srcnodata 9998 merged.tif output.tif

あとはQGISで読み込んでSingleband pseudocolorでがんばって色付けします。

f:id:smellman:20141015003459p:plain

あとはこのレイヤーを画像として保存します。

f:id:smellman:20141015003800p:plain

この時の注意点は二つ。

  1. ExtentのLayer Extentというボタンを押す。
  2. Create OptionsでProfileを選んでおく。

これで変換可能なGeoTiffが出来たので、gdal2tiles.pyで処理します。

gdal2tiles.py -r near -e -v -z 4-6 el_phl_test.tif output_tiles

とりあえず、要点としては以下の二つ。

  1. gdal2tiles.pyでこけたらgdalwarpで解像度を変更する
  2. FOSS4G 2014 Osaka/Tokyoに遊びに来て下さい

なお、FOSS4G 2014 Osaka/Tokyoの固定ページがないのは僕がWebサイト構築をする余裕が無かったからだと思います!!!!!!!

千葉市のオープンデータを使った二種類のサイトを公開しています

先月あたりから千葉市のオープンデータを使って二つほどサイトを作りました。厳密には二種類のサイトですが。

千葉市ごみ分類辞典検索

一つ目のサイトは千葉市ごみ分類辞典検索です。

元のデータは 千葉市:ごみ分別事典(50音順) です。
たしか千葉市議員の方がFacebookで公開されたっていうのを紹介していて、その日のうちに作りました。
いわゆるむしゃくしゃしてやったってやつです。
やってることは Papa Parse というCSVパーサでさくっとテーブルを作って、 @hail2u さんの jquery.table-filter を使って検索文字列でフィルタを掛けるというお手軽なものです。
ちなみに Papa Parse で Content-Range に対応してないサーバ(具体的には python -m SimpleHTTPServer です)を使った場合にバグがあるので Pull Request 送ったら help wanted ってタグ付いてる状態なので誰か見て欲しい(汗

千葉市版5374.jp

2つ目のサイトは 5374(ゴミナシ).jp千葉市版です。
こちらは 千葉市稲毛区版5374.jp があったので、それ以外を作りました。

これは千葉市ごみ分類辞典検索を作ったところ、翌日に千葉市職員で千葉市のオープンデータ関係の前担当の知り合いから連絡が来て、現担当の方が5374.jpを作りたいというので相談に乗って欲しいという話をされたのがきっかけ。
で、現担当の方がそのタイミングだと用事があるというので、連絡を取り合う前に先に前担当の方が上記のごみ分類をベースに5374.jpように作っていたファイルをもらって内容を確認しつつ他に必要なデータとかを調べてたら、あとは 千葉市:家庭ごみ・資源物の収集日 というデータがあればできてしまうことに気づいてしまい、ついうっかり連絡取る前に作ってしまったというもの。
あきらかにむしゃくしゃしてやったってやつです。
作る上で面白かったものとしては、美浜区でゴミの収集がまったくないというものがあって、それが原因で動かないというのがありました。
これは空気輸送収集という仕組みがあるらしく、こんなやつらしい。

これは幕張ベイタウンにあるごみ処理システムで、各マンションにごみ投入口があり、ここに捨てると地下パイプを通じてクリーンセンターという施設で一括処理されるというものです。

ベイタウンの空気輸送システム: 千葉市長:熊谷俊人の日記

なにそれヤバイ。俺の家に欲しいw
とにかくこれに対応すべく修正を加えたのだけど、この対応の Pull Request を作るのに手間取ってしまって公開が昨日まで遅れるというなんとも雑なことになりました(汗

今回は地元に対して新しい発見もできたり、2件Pull Requestを出すことができて個人的にはかなり満足しています。
ちなみに両方共仕事の合間にやっていていいストレス解消になりました。

あと、オープンデータはプログラミングの勉強の題材なんかにもよいのではないかなーと思います。
データを眺めてこんなの作れるかなーと思ったら作ってみるみたいなのは結構訓練になるし、ライブラリの調査とかも普段調べてないものとかを知るいいチャンスだと思います。

エンジニアを定量化なんてしてはいけない

ネタ元: 「エンジニアをつくる」という理念掲げていたら、エンジニアが社内からいなくなった件 | 新田章太の「エンジニアをつくる」ブログ

話の発端は、 俺がDMTCについて知ってること,またそれに対する所感 - 職質アンチパターンFacebookで話題になっていて、やばいなぁと思っていたら主催者もやばかったみたいな話。
内容自体ただヤバイんだけど、その中でも明確にツッコミを入れておきたい部分があった。

僕らの強みはDMTCを通じて、沢山のお客様とのつながりがあること

このつながりを活かして、

国内外のIT企業で働くエンジニアのスキルを定量化しよう

というひとつのテーマにいきつきました。

http://maximum80.me/archives/821

この部分についてFacebookで俺はエンジニアをバカにしてるって書いたけど、もうちょっと具体的に落としこもうと思った次第です。

ものさしに対するwizardとかguruとかの存在

定量化となると数量などで物事を測る必要があります。
ものさしですね。
例えば、AさんのLDAPのスキルは80ポイントとか。
上限を持つかどうかによっても変わるんだけど、上限を持ってるパターンと上限がないパターンを両方想定してみる。

ハッカソンをやってるっていうことは当然ある程度ハッカー文化についても調べていると思うんだけど、世の中にはwizardとかguruみたいな人がいます。
仮に僕のLDAPのスキルが100ポイントだとします。
僕のLDAPの経験は20台ぐらいの仮想サーバで構築されているWebサービスを僕だけで構築した上にLDAPでアカウントとかを適切に設定するとかそんな程度です。
わりと普通のインフラエンジニアのスキルです。

この場合で上限がないパターンを考えた時に、僕の知る限り一名ほど5000ポイント超えてるよねみたいな人がいます。
誰とは言いませんが、普通のエンジニアに比べるとどうしてもそのぐらいのスキルだよねーみたいな人結構います。
でも、その人が僕の約50倍働くというわけではないです。
あくまでスキルの違いがそれぐらい差があるというだけです。
エンジニアのスキルは天井がないようなものです。
そういう人たちがwizardやguruという人たちです。

さて、次に上限を設けた場合がもっと嫌なパターンです。
たぶん、この手の経験でいうとわりと現場で使えるレベルのものを僕はやっているので、一般的な求人とかで上限maxぐらいの位置にはいそうです。
しかしながら、さっき言った上限のないパターンで5000ポイントある人も僕と同じ条件になってしまいます。
ですが、明らかにやれることが全く違います。
むしろ同じにされると困るのです。
だって、「同じ数字だからお前を雇ったのにぜんぜん違うじゃないか」とか言ってくるんでしょう?
じゃ、そうならないように上限をそのwizardの人に合わせてみましょう。
wizardの人が100ポイントで、僕が2ポイントとなります。
カスですよね。
結局このような数字があることは雇う側も雇われる側も不幸なだけです。
そして、これらの数字は雇う側の都合でしかないのです。

スキルの上下

次に僕が言いたいのはエンジニアのスキルがあっさり上下するということです。
僕はさっきLDAPの例で仮に100ポイントとしましたけど、この数字自体は僕がその現場に居た頃の話です。
二年半ぐらい立ちますので結構忘れてることが多いのです。
たぶん、40ポイントぐらいまで下がってると思います。

しかし、またその現場に戻れば100ポイントに戻せる事ができるという自負はあります。
それでも、それは「その現場」の数字です。
例えばLDAPでも要求されることが変わればある程度やらなくて済むところも出てきますし、台数とかでもコツとか変わってきます。
それこそもっと大規模な構築が必要とされる現場に行けば200ポイントとか300ポイントとか行くんじゃないでしょうか。
つまり、スキルというものは外的要因が強くあるところがあります。
それによってあっさり上下するものです。

ポテンシャルの話

スキルの上下と同じような話なんだけど、エンジニアのポテンシャルについても言及する必要があると思います。

僕自身Ruby on Railsをメインとして扱っていて、経験も豊富な方です。
ここでも仮に僕のスキルを100ポイントとしましょう。
ですが、仮に僕の知ってるとあるAさんが仕事で必要だったりして一週間Ruby on Railsについて勉強しだしたりします。
勉強前はまったく経験がないので0ポイントであっても、その一週間で500ポイントぐらい行くだろうと思います。
そもそもバックグラウンドが全然違いすぎます。
経験豊富なエンジニアでかつ恐ろしく高度なところで戦ってる人はわけがわからないぐらいポテンシャルを持っています。
正直、そんな人を定量化とかしたって意味が無いんです。
だって、その人できるんだもん。

現場の話

最後に現場の話をしましょう。
ここは完全に僕の経験からの話です。

若いエンジニアと一緒に仕事をした時のことです。
そのエンジニアは周りの人はそこまでいい評価をしていませんでした。
今でも良い評価はほとんど耳にしていません。

しかし、僕はそのエンジニアと一緒に仕事をしたときに長所と短所がありました。
短所はよくミスをすることです。
たぶん、それが周りの評価が悪い原因だと思います。
しかし、長所は恐ろしくコードを書くスピードが速いのです。
僕が考えてる間にコードが出来上がってることがしょっちゅうでした。

ただし、僕の場合は考える時間が長い方というか考えすぎなところもあったりします。
周りがどう思ってるかわからないのですが、僕は仕事が遅い方だと感じています。
しかし、そのエンジニアとペアを組んだ時に良い作用が働きました。
そのエンジニアがコードを書いて、そこから間違えを見つけたり設計手法でより良いものを教えたりと、懇切丁寧にやっていきました。
すると、一緒のペアの時にそのエンジニアが少しずつバグが少なくなり、書くコードも良くなっていきました。
結果としてこのペアが相性が良かったと思います。
そのエンジニアがひっぱっていくことで、仕事もわりと順調に進み、すごく良い仕事ができました。
この成功体験の結果、ついでに僕のうつ病も治りました。

現場ではいろんな作用があります。
一緒にいる人が良ければ良くなることも、悪ければ悪くなることも、どっちでもないこともあります。
仕事をしている以上アウトプットは必要です。
そのアウトプットのためにいろんなできることがあります。
現場では常に工夫が必要です。
工夫次第ではダメなこともあります。

「これこれができるエンジニアを連れてきた」
よくある話だけど、「これこれができる」からと言ってその後一緒にプロダクトを作る能力があるとは限らないのです。
定量化された数値を元にエンジニアを連れて来られても、その人が書いたコードが駄目すぎて「なんで雇ったんだクソが!」みたいなのはしょっちゅうです。
でも、ダメなコードを書いていても現場で育てることができればそれは勝ちですし、価値があります。
数字ではその人の長所短所は示せないのです。
システムはエンジニアがというよりも「人」が作ってるものだということをちゃんと理解しましょう。