漢字擁護論者へのプログラマからの意見

アタッチとデタッチの綴りを間違えてないかどうかgoogleで確認した時に偶然あるページが目に入った。
日本語の表音文字化を主張する勢力と対立する勢力としての漢字擁護論者側の意見が書かれていた。
それによると、昭和初期の日本語表記表音文字化論者の間違いの一つとして、
"コンピュータによる処理が必要だから日本語表記を簡略化すべき"というのは
コンピュータの性能が向上し、日本語を問題なく使える時代がすぐに来ることさえ予測できなかったことが間違いである、という意見があった。


2006年現在、一般ユーザーにとってはコンピューターは日本語をアルファベット圏の言語と同じ程度のコストで使用できるものだという認識なのだろうか。
もし一般ユーザーの認識がそうであるとすれば、
プログラマとしては苦言を呈さずにはいられない。


勘違いしないで欲しいのは、コンピュータの処理能力のコストは既に問題ではないということだ。
コンピュータが使えるメモリ容量は爆発的に増え、プロセッサの処理速度も劇的に速くなり、人間が読み書きできる量に対して一文字が1バイトだろうが4バイトだろうが、たいした差異はない。


では問題は何か?
それは文字コードとプログラムであり、文字コードを扱うプログラムを書くプログラマの労力である。


2006年1月現在であっても、日本語をはじめとするマルチバイト文字列圏における文字コードの混乱は酷いものであり、むしろ日々悪化の一途を辿っているのではないかとさえ思われる。
これらに対して日本全国各地で調査、研究、実験そして実践が行われている。それぞれプログラマやSEの労力を消費しながら、である。
これらの問題は突っ込むとそれだけで本が一冊といわず数冊書けそうな問題なので細かく突っ込まない。
興味があればUNICODE, TRONコード, 云々というキーワードでググって頂ければ頭が痛いほど色々な内容に出会えるだろう。
(アルファベット+α程度の文化圏であれば、
ASCIIやEBCDIC等々での非互換性の問題は16bit固定幅のUNICODE1.0で十分解決、統一可能だったはずだ。)


そして、日本で日本語を表記する際に一番多く使われているであろうShift-JIS
この悪名高い文字コードは、恐らく私達の目に見えないところで巨大なコストをかけ続けてきていただろう。
2バイト目にASCIIの範囲と同じ文字が来てしまうこの文字コードを正しく扱うためには、西洋人がASCIIコードの為に書いたプログラムは作り直さなければならず、
たとえ新規に作る場合でもプログラムを複雑にし、往々にしてバグを出す。
そんな文字コードなのだ。
正直に言えばサポートするソフトが多いために私が普段ソースコードを保存する為に使っている文字コードはShift-JISだが、
これに見えないところでコストがかかっていることを多くの人に理解してもらう必要はあると思う。
もし、このような文字コードの混乱の問題や、その文字コードの実装の問題、そしてそれを"改めるべし"、"いやこのままで良い"と言った議論に使われる時間、そういった見えないコストがかからなかった場合どうなっていたのか、
簡単に言えば日本のソフトウェア産業は今よりもっと強くなっていたのではないだろうかと思う。


現状、ソフトウェアはアメリカから輸入するものであるが、もしかしたら輸出する側になれていたかもしれないし、無料で使えるソフトウェアは日本発のものがもっと多く出ていたかも知れない。
実際、海外からは"日本のフリーウェア開発者は他国語化ポーティングしかしない(提供する側ではなく一方的に受け取る側だ)。"と見られているむきもあると聞く。


これらは目に見えづらいコストである。
自分の財布から出て行かないからだ。
実際には財布に入ってくる額が減っているのだ。
結局、トータルで見れば大きなコストがかかっている。


コンピュータの処理能力の向上だけでは、
日本語をコンピュータで使うことに対してのコストを減らすことはできていないのだ。
もう何十年も、日本人は日本語の表記の複雑さゆえに大きなコストを払っており、
そしてそれはまだまだ解決が見えていない問題なのだということを
もっと多くの人が知るべきであると思う。