■「とても危険」

 われわれ人類は、最大多数の人々にとって最良の結果を生み出すよう行動する義務がある。これが長期主義者の考え方だ。

 19世紀リベラル派の考え方と変わらないが、長期主義者はさらに長い年月を念頭に置いている。遠い未来を見据え、何十兆、何百兆という人々が宇宙へ進出し、他の惑星を植民地化する姿を思い浮かべているのだ。

 長期主義者の主張はこうだ。私たち現代人は未来の人々に対し、今生きている人々に対するのと同じ責任を負っている。ただし、その潜在的な人口ははるかに多く、比例して責任も重くなる。

 トーレス氏は、こうした考えが「とても危険」だと指摘する。同氏には、ソクラテス以前の哲学から現代の「実存的リスク 」に関する研究まで、人類滅亡思想の起源と進化をたどった著書「Human Extinction: A History of the Science and Ethics of Annihilation」がある。

「ほぼ無限に近い価値を掲げるユートピア的未来像と功利主義的な道徳思考が合わさると、手段は目的によって正当化される。危険な組み合わせだ」

 例えば、人間と同様の感性や思考回路を持つ「汎用(はんよう)人工知能(AGI)」が完成間近で、それには人類を滅ぼす潜在的な能力があることが判明したとする。その場合、長期主義者はいかなる手段を使っても、その完成を阻止するだろう。

 今年3月、X(旧ツイッター〈Twitter〉)のあるユーザーが、AGIを止めるために犠牲にして構わない命はどれくらいだと思うか、と質問したところ、AI専門家で長期主義者のエリエゼル・ユドコウスキー(Eliezer Yudkowsky)氏は「生殖人口を形成するのに十分な人数」さえ残ればいいと答え、「そうある限り、いつかは(他の)星に到達することができる」と答えた。この回答は後に削除された。