ファイルの中身全体をJavaの正規表現でマッチングしたいんだが
PatternやMatcherを使う想定。
まず、Pattern#compileして、Patternを作る。
複数行にしたいならフラグも考える。
PatternができたらMatcherを作りたい。
そのとき必要なのはCharSequence。
そこはファイルの内容全部を渡したいが、
Javaヒープ使いたくないな。
FileChannelからmapして、MappedByteBufferを作って、CharsetからCharsetDecoder作って、単純なdecodeではなく、引数にCharBufferもあるdecodeを呼びたい。
単純なdecodeだと恐らく単純なCharBufferが作成されてしまい、きっとヒープに展開されるだろう。それは勘弁してもらいたい。
そのCharBufferは、ByteBuffer#allocateDirectしたByteBufferのasCharBuffer()にできないだろうか。CodeResultの扱い方は今度書きながら考える、昔書いたときはどうやってたんだろう。。。
目論見としては、ほとんど全部ヒープ外になってくれることを考えている。MappedByteBufferは、デコード後にとっとといなくなってほしい。GC起きないと厳しいだろうな。
allocateDirectするサイズがうまく見積もれない。デコーダから、averageCharsPerByteを取り、見積もるのが妥当なんだろう。
MappedByteBufferのlimitに、平均charsをかけて、charのバイト数の2をかけるのか?
そんでもって、どこかメモリ確保しやすい適当なところで繰り上げるか。
本当にlimitでええんやろか?
mapするときにチャネルのsizeを渡すつもりで、そのサイズと同じ値がlimitにくるはず。
瞬間的にヒープ外にかなり負担がかかりそう。
JVMオプションで拡げる必要がでてくるかもしれない。
GC起きないといけないし、何度も同じことやるとNative OOMコースになる可能性があるやも。それに寿命が短いバッファになる想定なんで、使い方としてはあまり納得がいくものではない。
むむぅ、小さいファイルなら非ダイレクトにしたほうが安全かもしれないしホント難しい。
ファイルの中身をCharBufferとして持てることで、正規表現の幅は広がる。
複数のPatternを用意して、初めに作成したMatcherに対して、usePattern呼び出しで、パターンの切り替えもできると思う。
DOTALLやMULTILINEをどんな感じに使うかはいろいろあるだろう。
出現行の順序だけでなく、1行内のデータの出現順序まで順不同だった場合に、正規表現であわわあわわするんだろうけど、グループがネストした場合の参照番号の規則もちゃんと説明があるので、ゆっくりじっくり書けばなんとかなりそうだ。
WebSphereのAntタスクが動かなくなってた
開発ネットワークにp2リポジトリを立てる
開発ネットワークはインターネットにアクセスできず、プラグインのメンテナンスが大変だ。
dropinsで頑張るやり方もあるが、知らぬ間に誰かが継ぎ足した感じになったり、複数人に対したメンテナンスが悪い気がする。
現在試しているの以下のプラグインたち。
subversiveとconnector
eclemma
websphere developement tools
こいつらをluna sr2 linux 64bitにねじ込む。
content.jarとartifact.jarを持つ、
いわゆるp2形式なものは簡単だ。
難易度が高いのはfindbugs。
提供形態がしょぼい。
こいつについては、旧来のUpdate Managerの形式のようだ。pluginsの部分しかzipになってない。
面倒臭い。
URL直接叩いてsite.xmlをぱくる。
site.xmlにfeatureのパスが書かれているので、
そこにあるjarを取ってくる。
featureのjarにはfeature.xmlしか入っておらず、そこにpluginのパスが書かれているので、これまたURL直接叩いて取ってくる。
必要なものが揃ったので、これで構築した。
dropinsにfeatureなしのpluginのみで認識するものもあるが、findbugsは認識されなかったみたいで、仕方なくのことです。
ひょっとしたらURL直接叩けばartifact.jarがいたのかな。。
subversiveはp2形式なので、解凍して置くだけで、とっとと更新サイトになる。
更新サイトとはいっても特定バージョンしか入ってない。
余計なsite.xmlが混ざっていたかもしれないが、放置しといた。たぶん互換性のためにあるものです。
connectorは3種類あるが、オールマイティなallplatformを使うように改めるつもりだ。
プラットフォーム限定
オールプラットフォーム
プラットフォーム非依存(svnkitの最新jar)
いまは最後の単一Jarをdropinsに放り込んでるが、手法がそこだけ違ってくるので、オールプラットフォームにでもしておく。
でも、javaHL使う予定はない。
checkstyleとeclemmaはp2形式で何も問題ない。
wdtは、Web Developement Toolsのフィーチャーが入らなかった。
いちおう前提となるluna sr2 jeeなんだが。
Linuxだからか??
gmf-rutimeが足らず
emf.workbenchが足らず
どんどん芋づる式に足らないものが増えていくし、そんなバージョンどこにあるんだよってなる。
やめた、やめた。
そのフィーチャーは諦める。
p2リポジトリを作ったあとは、
それらをシエルを書いてインストールする。
まずeclipseはtar -xzfして用意。
org.eclipse.equinox.p2.directorは超むずい。
dropinsに放り込むことができるのかと思ったら、ちょっと認識が違っていた。
そこは諦めた。
installIUsするのに、先にlistさせてみるも、
なんだか数が多くてどれを選べばいいか分かりにくいこともあるので、いちどGUIを立ち上げて調べたほうがいい。
profileオプションは付けなくてもいい。
よくSDKProfileを指定している例があるが、それはRCP次第だろう。もしくは自分のやりたいことと違うのかも。
指定したいのであれば、
eclipse/cofiguration/config.iniの中に書いてある。
destinationオプションにはeclipseのフォルダを指す。
bundlepoolオプションは指定しない。
bundlepoolの指定先をdropinsのプラグイン単位フォルダにしている例があるけれど、けっこうそこがハマったところだ。
これはダメパターンだ。
それなのでdropinsに置くのは諦めた。
しかも、一度dropinsを消しても、初回のbundlepoolの場所を覚えているので面倒臭い。
起動時にもチェックしているので、裏で余計なログがでている。
repositoryオプションは足らない依存関係を解決するためのすべてを書かないといけないのだが、インターネットにアクセスできない以上、自前の更新サイトしか指定していない。
そもそものluna sr2に備わっているものは、destinationの指定で解決してくれているようだ。
0.0.0のバージョンが見つからないと出たりするなら、それはきっと指定が間違ってる。
多少の妥協はあれど、やってみたかったことはおおよそ実現できそうだ、
Websphereとファイアウォール
以前、jythonで書いたスクリプトでserverindex.xmlをなめて情報を吸い出し、lokkitコマンドで設定するものを書いた。
ただ、ポート番号がアスタリスクの部分は無視して、設定しており、今回その部分で問題が起きたので、したためておく。
このページ、およびここからリンクで辿れる以下のページは目を通しておくといい。
アスタリスクになってると、ローカルポート範囲から使うはずだ。
カーネルパラメータのローカルポート範囲を全部開けるとかありえないので、WAS設定変えて、そこだけ開けるようにしないといけない。
まだ仕込んでないポートあったなぁ。
思いつくのはデバッグサービスのポートと、healthcenterのポートあたり。
healthcenterのほうは、リアルタイムで繋がないならポートの指定は不要だろう。自分はheadlessで動かしたことあるので困らない。
デバッグサービスのポートは面倒だ。
serverindex.xmlに書いてあるわけではなく、たしかserver.xmlをなめる必要があって、常時必要なもんでもないし、7777が初期値で、大抵の場合、全サーバで重複したポートのままになってる。
あと、書き方が二通りある。
前者は、後者の設定を簡略にできるだけのものというイメージ。
必要になったときに考えることにする。
Jenkinsのラベル式
どう使うのが良いのだろうか。
少しだけ触った印象では、
あるジョブを実行してよいノードを条件付けるために使うものに思える。制限するっていうのだから当たり前か。
細かく条件としてのラベルを書くこともできなくはない。
でも、やればやるほどラベルが増える。
やればやるほどてんやわんや。
仮にRHEL6.5ラベルを付けたノードがあり、バージョンアップ対応でRHEL7.1をこさえた別ノードで動作確認をさせるためには、ジョブのラベル式も書き換えないといけない。
なかなか面倒くさい。
ラベルを使い、負荷分散をするのには使える。
まるっきり同一構成の環境を複数ノード作り、それぞれのノードに同じラベルを付ける。
ジョブのラベル式には、その単一のラベルを書く。でも、どちらのノードも混雑してたら、どちらのキューに積まれるのだろうか、試したことがない。この使い方がわりとしっくり来る。
ラベルは、ノードのローリングメンテナンスに使えるかもしれない。
ラベルは、アクセス制御に使えるかもしれない。テストアプリの稼働環境が非スレーブで、そのテスト環境にリクエストを投げつけてよい唯一のスレーブに、それと分かるラベルを付けて制御する形式。
ああ、でも、その唯一のスレーブで動かなくてよいジョブには、どう書けばいいんだろう。ジョブのラベル式には否定を書けるんだっけかな。
なんだかんだ嫌になって、ノード=ラベルになってしまいそうだ。
とりあえず、細かくやればやるほど、直すところが増えるので、やり過ぎないようにしよう。
ノードのラベルは空白区切り、
ジョブのラベル式は&&や||を使って書く。
記号の前後に空白を付けても、裏で作られるラベル空白が取り除かれてるようだ。
試してないけど、A&&BとB&&Aは同じ意味を持つラベル式だけど、裏で作られるラベル式はそのままの文字列で作られるんだろうな、きっと。
IBM Data Studio 4.1.1にWebsphere Developer Tools for Junoを入れたい
今となっては、SQLJ開発を無償ツールでやるには、IBM Data Studioが大本命だろう。
しかし、私として、そこにWAS用のプラグインは入れたい。
素のIBM Data Studio 4.1.1に、Websphere Developer Tools for Junoを入れようとしても、依存ライブラリが足らない。
Juno自身の更新が必要だ。
IBM Data Studioを起動してから、Junoを更新可能なサイトにする。
その状態ならば依存関係のチェックは通る。
で、そこからインストールせずに、外部ネットワーク接続できない環境のために手を動かしだしたため、実際にプラグインが入るところまでは確かめていない。また今度確かめるさ。
Websphere Developer Tools for Junoは、zipで落としてこれるのでそれを使う。ただ、Junoでのメンテが続けられるのかは心もとない、もう1年メンテされてないように見える。
さて、本命の問題はJuno自体の更新。
p2リポジトリをミラーしてくることにした。
前々からやろうと温めていた。
ミラーリングの方法は普通に載っているので理解には苦しまない。
問題は会社のプロキシ越えだ。
昨今のEclipseのネットワーク周りの具合の悪さは私の行く手をしばしば阻む。
それを回避するのにココが参考になった。
org.eclipse.ecf.provider.filetransfer.excludeContributors=org.eclipse.ecf.provider.filetransfer.httpclient
この部分が特に。
他の指定は前から知ってた、Javaでプロキシ越えたい人を知っている内容だろう。
これでクソったれなhttpclientを迂回してくれる。
これを入れないと、プレファレンスのネットワーク設定が優先されてしまう。
他にeclipseに渡して良かったのは、-consolelogくらいかな。
コンソールログでダウンロードに詰まってるファイルがわかる。
それと-ignoreErrorsを付けないと、エラーでダウンロード止まるので、付けた方がいい。さもないと、5個くらいで止まったりする。
さて、ダウンロード出来なかったファイルが大量にあるものの、なんちゃってミラーができたので、それを使ってみた。
残念。
きっと、きっちりダウンロードできていれば、プラグインは入るはず。
次なる問題はなんだ。
なんかいい方法ないかな。
rsync使えるかな。
wgetでいけるかな。
robocopyとかネットワーク越えられるの?
PowerShellはちと辛いかな。
いやいや、まずはsite.xmlの中身を評価できる方法が必要でしょ。
これかな?きっとこれだ。
おう、いえい、なんか出来そうな気がしてきたぞ。