トロッコ 問題 ai

トロッコ

Add: iwokyv6 - Date: 2020-12-16 17:14:43 - Views: 1946 - Clicks: 2858
/1331ecd8e50-108 /5546251 /122e4da05b6 /42-7579a8c3f44

」という形で功利主義と義務論の対立を扱った 倫理学 上の問題・課題。. 年齢(乳幼児/子供/大人/高齢者) 4. トロッコ問題 (トロッコもんだい、 英: trolley problem )あるいは トロリー問題 とは、「ある人を助けるために他の人を犠牲にするのは許されるか?. 手段と目的の条件。善い結果をもたらすからといって悪い手段を用いてはならない。 3.

回答の傾向は、地域的・文化的に見て大まかに「東」「西」「南」に分かれる。「東」はアジアと中東、「西」は欧米諸国とロシア、「南」は中南米諸国だとイメージすれば、だいたい合っている(ただ、ブラジルは「西」、フランスは「南」に含まれるなど、例外もかなりある)。 地域別の違いの一例を挙げると、「南」の回答者は高齢者よりも若者を助ける傾向がわずかに強い。これは「東」と比較した場合に特に顕著だという。 国別に見ると、日本やフィンランドのように治安のよい豊かな国では、信号無視をしている歩行者は「死んでも仕方がない」という意見が多くあった。一方で、所得格差の小さいフィンランドでは、歩行者や搭乗者の社会的地位は、助けるべきかという倫理判断にほとんど影響を及ぼさないようだ。 これに対し、コロンビアのように貧富の差が激しい国では、ホームレスや犯罪者は見殺しにされることが多かった。中南米におけるマフィアや麻薬がらみの犯罪の苛烈さを思えば、ある程度は納得がいくかもしれない。. 自律走行車の時代に問われる「トロッコ問題」。一部の有識者によれば、すでにこの問題は“解決”されているのだという. 若者と高齢者 3.

jp ブレーキが故障した乗用車が、歩行者5人の. 正しい意図の条件。意図はただ善い結果を達成することであって、悪い結果は意図しない副作用によるものだけであるべきである。悪い結果が善い結果を得るための手段であるならば、その行為は不道徳である。悪い結果が予想されるとしても、混乱してはならない。 4. この問題に正解はない。自動運転で注目されている。 連載目次 用語 解説 トロッコ問題は、機械学習の用語というわけではないが、自動運転などを含むai/機械学習の倫理的な課題を考える際によく取り上げられる用語 である。 完全自動運転車は完成するのかどうか。この質問に対する答えは2つあることがわかった。 ・技術的には完成する ・倫理的には完成しそうにない トロッコ 問題 ai 自動運転車は、運転の労力がなくなるだけでなく、実は安全にも寄与することがわかっている。高性能センサーや画像認識技術によって、人の目では見えない場所も「見える」ようになるからだ。つまり、すべての自動車が自動運転車になったら、いまより交通事故が減ることが期待される。 それでもなお完全自動運転車の実用化にブレーキがかかっているのは、人災による被害より「AI災」による被害のほうが、人々の心理に与えるダメージが大きいからだ。 多くの人は運転する人に完全無欠の運転を求めないが、多くの人はAIの運転には完全無欠を求める。 ただ原子力発電所や飛行機、鉄道、さらに現行の自動車など、完全無欠どころかかなりの危険を含みながら市販化されている科学技術はいくらでもある。 完全自動運転車を実用化できるかどうかは、人々が「どこまでAI災を許せるのか」にかかっているのだろう。 <参考> 1. ai時代の到来で「トロッコ問題」が再燃! その「ワケ」と「解法」 法学者と情報学者の特別対談【pr】. 比例条件:善い結果は、悪い結果と重要性において少なくとも同等でなくてはならない。 この論文の中でフットは、妊婦の子宮に腫瘍があり、彼女の命を救うには子宮摘出手術しかないし、子宮摘出手術の目的は胎児を殺すことではないといった論を立てて、中絶を批判するために二重結果論を用いることは不当だと論じている。.

See full list on namakemon. あなたは路面電車の運転手をしています。前方に5人の作業員の姿が見えます。 慌ててブレーキを踏むも、ブレーキは効かない。このままでは5人を轢いてしまうという状況で、右にハンドルを切れば別の路線に回避することができる。 しかし、そちらの路線には1人の通行人がいる。そのままの進路では5人、右に路線変更をすれば1人を轢いてしまうことは避けられない。 このような状況であなたはどのような選択をするかという内容です。 ちなみにこの6人とは一切面識がなく、大声をあげるなどをしても轢かれることを回避する方法はありません。 ※自分が運転手ではなく、路線変更の唯一の切り替え役や橋の上から観ているという別パターンもあります イギリスの哲学者フィリッパ・フットが提起し、日本では「ハーバード白熱教室」で有名なマイケル・サンデル教授のおかげで広く知られるようになったそうです。 これは思考実験としては、とても有名なものだそうです。全然知りませんでしたが・・・. See full トロッコ 問題 ai list on トロッコ 問題 ai isyokuju.

aiと倫理の話題でよく出るのはトロッコ問題です。 出典:いらすとや トロッコ線路のポイントを切り換えて行き先を選択するだけの思考実験ですが、例えば人工知能(AI)を搭載した自動運転車をトロッコに見立ててAIにどう選択させるかという問題になります。. See full list on wired. ドライバーなしで完全に自律的に走行する車(自動運転車)が公道を走り出す日が近づくにつれて、どう運転しても死者の出る事故を避けられないような状況に陥ったとき、AIはどのような判断を下すべきか、という問題が話題になっている。 wired. トロッコ問題(トロリー問題)をご存じだろうか。 簡単にいうと、「ある人を助けるためにほかの人を犠牲にするのは許されるか? 」という. トロッコ問題の元とされているのは、『オックスフォード・レビュー』で発表された「中絶問題と二重結果論」(The Problem Abortion and Doctrine of the Double Effect,Phillipa Foot,1967)というタイトルの論文に収められた、中絶の是非を巡る議論のうちの例題の1つ。 この論文には、いくつかの倫理的ジレンマを巡る例題が示されており、他には「洞窟から抜けられなくなった太った男」、「健康な人間からの臓器移植」といったものがある。 この論文では、「二重結果論」という倫理学における重要な原則、許容される悪はいかなるものかについての議論を、意図することと予見することとの区別を中心に展開される。フットは、「『二重結果論』は自発的行動の結果として人間が予見するものと、厳密には意図するものとの区別に基づいて」おり、以下の4つの条件から成っているとしている。 1. 以上、トロッコ問題の元ネタや正解についてのまとめでした。 ※私は専門家ではないので「こういう考えもある」ということを前提に読んでいただければと思います。 トロッコ問題を出題されたら、自分に正直に答えるのがベストだと思います。 せっかくなら、自分の思考のクセを知ってみたいですからね。 しかし、現実でトロッコ問題の場面に遭遇したら、パニックになる自信はあります。笑.

答えはないにしても、他に方法はないのでしょうか? 人はそれぞれ、いろんな方法を考えています。 調査している中で、こう言った方法もありだなってのを見つけたので紹介します。 2択ではなく他の角度から答えをみてみる方法です。 この問題が気になった人は参考にしてみてください。. 別のパターンとして、橋の上からたまたま暴走する列車を見つけたという設定もあります。 暴走列車が5人の作業員に突っ込んでいくが、5人の作業員は気が付かず声も届かないので止めようがない。 たまたま自分の横には太った男がおり、その男を突き落とせば列車を止めて5人の命は救われる。 ただし、太った男は死んでしまうという設定です。とてもイジワルな設定ですね。 この条件では、先ほどはハンドルを右に切るという選択をした人でも太った男を突き落とさない選択をすることが多くなるとのこと。 いくらなんでも5人を救うために積極的に1人の男を犠牲にするのは抵抗があるということでしょう。 同じ1人を犠牲にするという行動でも、状況によって判断は変わりますね。. 太った男は突き落としません。 いくら5人を助けるためとはいえ、何もしなければ死ぬことがない男を突き落とすのは間違っていると考えます。 この男を突き落とせば1人が犠牲になり5人が助かるので功利主義では正しいことになりますが、二重結果論の考え方を支持します。. 交通規則の順守を重視するか 9. 論:ai化する社会と倫理的ジレンマ—トロッコ問題の日米中文化比較から考える— 5 まず、第一の問題についての回答結果が図1である。9割の日本人が、5人 の命を救うために1人の命を奪うことを選択している。どうやらサンデルの. .

トロッコ 問題 ai こうした例を挙げていくと本当にきりがないので、興味がある方はぜひ論文を読んでいただきたい。もちろん、「Moral Machine」は設定状況があまりにも特殊なため、現実世界には応用できないという議論は無視できないだろう。また、回答者の大半を若年層の男性が占めているという点も指摘されている。 論文の共著者でメディアラボ准教授のイヤッド・ラーワンは、「Moral Machine」が現実的でないことは認めたうえで、自動運転システムを巡る自動車メーカーの決断はほぼすべてが、ある意味では間接的なモラル判断なのだと説明する。 例えば、自転車専用道のある片側1車線の道路で、対向車との接触を避けるためにクルマをわずかに自転車道寄りに走らせるようにシステムを設計したとする。こうすれば、自転車を巻き込んだ事故は逆に増えるだろう。死亡事故の急増といった大きな影響がすぐに出ることはなくても、将来的にはかならず統計値として現れる。 現実は白黒では収まらないという話のついでに、「世の中の自律走行車一般には(犠牲者の数を最小限に抑えるといった)“公平”な判断をしてほしいが、自分はそんなクルマには乗りたくない」という、小ばなしのようなパラドックスにも触れておきたい。 自己中心的と非難されるかもしれないが、そう思う人はたくさんいるはずだ。何かあったときに、自分を殺すという判断をするかもしれないようなAIが運転するクルマに乗りたいだろうか。. AIが進歩し、自動運転が「当たり前」の時代になりそうです。 個人的には大歓迎です。 早くそんな未来が来て欲しいです。 明らかに事故が少なくなると、『僕は』考えています。 それくらい公道を走っている車は、むちゃくちゃな運転をしていると思います。 お前はどうなんだ?ということですが. 【AI入門】今話題の自動運転!AIはどう使われているの?(Samurai) 3】(AUTO PROVE) net/blog/6i-3 4. aiに倫理を理解させるためには、人間がまずはそれを理解しなくてはならない。しかし、トロッコ問題で頭を悩ませたあなたなら分かるだろう。容易なことではないのだ。 しかし、それなしにaiがすべてを管理するとなると. しかし、「自動運転」では「トロッコ問題」のような究極の選択を迫られた時、aiはどういう判断をするのでしょうか? 「自動運転車」同士の場合もあれば、一方だけが「自動運転車」の場合もあると思います。. See full list on blogerpayaso. 『毒』と『猫』が一緒にはいった箱がある。 この『毒』が入った容器は、50%の確率で蓋が開き、50%の確率で何も起きない。 この箱の中に入った猫は、50%の確率で生きており、50%の確率で死んでいる。 さて. すべての『色』を学び尽くした、『盲目』の色の専門家マリー。 彼女は世界の全ての色を『知っています』。 しかし、彼女は色を『見たことはない』。 そんな彼女がはじめて色を見たら・・・?.

aiと倫理の分野では主に3つの話題があります。 ・ 訓練データの誤り ・トロッコ問題 ・ aiの制御. あなたはこの問題、どのように答えますか? 言い回しなど若干の変化はあるものの、大体このような質問内容である。 要するに何もしなければ多くの人が犠牲になるが、行動を起こせば1人が犠牲になる代わりに多くの人を救える状況である。このようなジレンマを抱えた状況下で人間はどんな思考をするのかという一種の実験であるともとれる。 ちなみに本来の原則として法的責任は一切考えないものとする。つまり道義的に考えて「線路を切り替えることを許せるのか?」という所がこの問題の焦点である。より多くの命を救うと考えるなら線路を切り替えるべきだし、一方で5人を助けるために1人を犠牲にすることを良しとしないと考えるなら何もしないと答えるはずである。 なおネタとして線路を切り替える・切り替えない以外の答えが導き出される場合もある。(どちらも助ける、どちらも轢き殺すなど) 創作作品でもこのような「多数を救うために少数の犠牲はやむを得ない」というスタンスのキャラクターが登場することがあり、大抵は「少数を見殺しにはできない」主張を持つ主人公と対立したり敵対したりする。. マサチューセッツ工科大学(MIT)メディアラボの研究チームがつくり上げた「Moral Machine」では、こんなことばかり考えさせられるはめになる。「Moral Machine」は、1967年に英国の哲学者フィリッパ・パットが提示したトロッコ問題を自律走行車に応用した思考実験の調査だ。 自律走行車が事故に直面したとき、誰を犠牲にすることが「正解」なのか──。マサチューセッツ工科大学(MIT)メディアラボの研究チームがつくり上げた「Moral Machine」では、答えを出すことが困難な問いがいくつも提示される。IMAGE COURTESY OF トロッコ 問題 ai MIT MITメディアラボのエドモンド・アワッド率いるチームは、人工知能(AI)を搭載した自律走行車が特定の状況でどのような判断を下すべきだと思うか、世界中の人々に意見を求めた。オンラインの調査は英語版だけでなく、アラビア語、中国語、フランス語、ドイツ語、日本語、韓国語、ポルトガル語、ロシア語、スペイン語の計10言語が用意され、233の国と地域に住む4,000万人近くが回答している。 調査への参加はまったくの匿名でも可能だ。ただ、49万1,921人は年齢、性別、最終学歴、収入、政治的信条や信仰する宗教といった個人データを提供した。.

社会的地位(会社経営者/医師/ホームレス/犯罪者) 7. 「トロッコ問題」そのものに決定的な解決策が出てないうちに、それを「自動運転車」に応用したら、どうなって. 自動運転車の開発では、トロッコ問題が話題になっている。自動運転車に搭載されたAIはトロッコ問題に対し、どのように回答を出すべきなのだろうか。 トロッコ問題の概略はこうだ。 線路を、制御を失った無人のトロッコが暴走している。その進行方向には分岐点があり、トロッコは分岐器によってA方向に行くこともB方向に行くこともできる。 分岐点には人物Cがいて、分岐器を動かしてトロッコの行き先を決めることができる。 A方向の線路上には5人の作業員がいて、B方向の線路上には1人の作業員がいる。 この場合、Cは分岐器をどのように動かすことが正義にかなうだろうか。 もしCが分岐器を動かさなかったことでトロッコがA方向に進んだら、Cは消極的に5人の死を選択したことになる。もしCが分岐器を動かしたことでトロッコがB方向に進んだら、Cは5人を生かすために積極的に1人の死を選んだことになる。 トロッコ問題は、自動運転システムに次のような課題を突きつけている。 公道を走行中の自動運転車が、ブレーキと同乗者によるハンドル操作機能の両方が故障したとする。 暴走する自動運転車の前方左には5人グループがいて、前方右には1人がいる。 自動運転車の開発者は、自動運転車がこのシチュエーションに遭遇したらどちらに「突っ込め」と教えるべきなのだろうか。 人が運転者であっても同じ問題は起きる。ただ自動車の運転者(人)がトロッコ問題に直面して人を殺(あや)めてしまった場合は、裁判という方法で事後的に処理することができる。 例えば自動車に欠陥があれば、運転者を責めるのではなく、自動車メーカーの責任問題になる。もしくは、そこまでスピードを出していなければ被害者は死亡せず、骨折程度で済んでいたのであれば、運転者の責任が重くなる。 ところが、死亡事故を起こした自動運転車のAIを裁くことはできない。では、自動運転車の開発者が自動運転車に「5人と1人のいずれかに突っ込まなければならないとき、1人のほうに突っ込め」と教え、実際に自動運転車がそのように動いて1人が死亡したら、その開発者は殺人罪に問われてしまうのだろうか。. 健康状態(アスリート体型/肥満体型) 6. 自動運転にAI(人工知能)は必要?倫理観問う「トロッコ問題」って何?(自動運転LAB) 画像認識システム向け人工知能技術(DNN-IP)(DENSO) が社会に浸透しつつある新しい時代のなか、 技術論や法・制度論の枠に留まらない、より複雑な問題が次々と顕在化していることがあげられる でしょう。 自動運転車におけるトロッコ問題も決して新しい論点ではなく、これまでも継続的に論じられて. 僕は体が悪いので運転できません。 話はそれましたが、仮にすべての車が自動運転になって、事故が大きく減ったとしても、『ゼロ』にはならないと思います。 いつか訪れるであろう、その事故の瞬間に『AI』はどう判断するのが倫理的なのでしょう。 どうしても避けられないなら・・・ ・・・ 自動運転が当たり前の世の中にするには、この道徳的ジレンマを解決しなければならないときが来ると思います。. AI(人工知能)は、ディープラーニング(深層学習)によって人間の判断力や思考を超えようとしています。この技術の進歩はさらなる発展・応用可能性が期待されていますが、同時に、「AIは本当に信用できるの?」という不安を生み出しました。本記事では、そんなAIが抱える問題のひとつ. ?.

この問題を巡っては、メルセデス・ベンツの安全技術担当であるクリストフ・フォン・ヒューゴが過去に、「レヴェル4や5の自律走行車では、搭乗者の救命を優先するようにAIをプログラムする」といった趣旨の発言をして、物議を醸したことがあった。 実際には、どのような判断(運転)をしても死傷者を出すことを避けられるのか不明な状況において「少なくともひとり(搭乗者)は確実に助けられるのであれば、その人を救うべきです」と言ったのだが、メルセデスはすぐに火消しに回った。ヒューゴの発言は文脈を無視して報じられており、企業として人命の重さを判断するようなことは絶対にしないというのだ。. 交通ルールを守る人と守らない人 といった他の判断基準も議論の的となっています。 さらに、これらの基準を組み合わせた事態も想定する必要があるため、結論を出すことは非常に難しいでしょう。 自動運転AIの思考についても、未だに答えは出ていないようで日夜研究が続けられているそうです。 モラル・マシンのサイトで実験の結果として自分の思考傾向も見れるので、興味がある方は試してみてください! ↓こんな診断結果が見れます↓. See full list トロッコ 問題 ai on dic. 今回のトロッコ問題においても、トロッコ問題のような極限状況が特殊すぎるゆえに参考にできる判例理論がないというだけで、他者の命を守るためとはいえ、 積極的に他者の生命を犠牲にする殺人行為については行為の社会的相当性が否定され、違法性は阻却されない可能性は高いと個人的. 紙を折りたたむと、どんどん分厚くなりますよね。 さてここで問題です。 紙を何回折ったら、月まで届くでしょうか?. 研究チームは9つの指標を基に、人々が何を優先して生存者と犠牲者を決めるのか分析した。具体的には以下の項目だ。 1.

自動運転車の定義は難しい。SF映画などに登場する、意思を持った自動車も自動運転車だが、すでに自動車に搭載されている自動ブレーキシステムも広義の自動運転車に含まれる。 そこで各国の政府は、自動運転車のレベルを次の5段階に分けている。 レベル0:人がすべて操作する レベル1:加速、操舵、制御のうち1つを自動で行う レベル2:加速、操舵、制御のうち2つを自動で行う レベル3:加速、操舵、制御のすべてを自動で行うが、運転者も介在する レベル4:加速、操舵、制御のすべてを自動で行い、運転者の介在は不要 レベル2の自動運転技術は、すでに市販車に搭載されている。例えば日産の自動車に搭載されている「プロパイロット」という技術は、次の内容を実現している。 ・自動で先行車と車間距離を保ちながら、先行車を追尾する ・先行車が停止したら、自車も自動で停止する ・先行車が発進したら、ドライバーがアクセルを踏むと自動で追尾する ・道路の中央を走行するよう、自動でハンドル(操舵)を制御する 実験車レベルでは、すでにレベル4に到達している自動車メーカーもある。 しかし世界中のどの自動車メーカーもまだ、「レベル4の自動運転車を公道で走らせても絶対に安全」とは宣言できていない。 トロッコ 問題 ai そして世界中のどの政府もまだ、「レベル4の自動運転車を公道で走らせてよい」と許可していない。 年現在の自動運転車はまだ、絶対的な安全に達していないといえる。 自動運転の開発を加速させる大手自動車メーカー. また、日本は助かる命の数を重視しない(つまり、数よりも誰を助けるかという「質」を重視する)ほか、歩行者を助ける傾向が世界で最も強い(2位はノルウェー、3位はシンガポールだ)。逆に、生存者の数を重視するのはフランスで、歩行者よりクルマに乗っている人を守ろうとするのは中国とエストニアだった。 フランスは高齢者に比べて若年層を助ける傾向も強い。これに対し、高齢者を助けるという意見が多かったのは台湾で、ほかに中国や韓国といった儒教文化の影響の強い東アジアの国々でも同様の偏向が見られた。 MITのアワッドは『WIRED』日本版の取材に対し、日本で特徴的なのは生存者の数を判断材料にする傾向が非常に低いことだとしたうえで、「その意味では、世界で最も功利主義的でない国だと言えます」と話している。また、日本は介入を避ける傾向も平均よりかなり高いという。. グループ3:「トロッコ問題」は倫理学的に問題あり? 会場:bの場合、結論は出ないのではないかという疑問が出ました。aだったら単純に数で判断できますが、bの場合、優先させるべき人をどう判断・識別するのか。さらに、先ほどのグループと被ります. 種(人間/犬/猫) 5. 行為の性質の条件。行為は道徳的に善いものか無関連でなければならない。虚偽か意図的に無実の人を殺すことは許されない。 2. 平野 この「派生型トロッコ問題」のような問いに正解を見出すためには、ITやAIなどの技術的な「知識」(knowledge)がもちろん必要ですが、同時. 5人を助けられるのなら、1人を犠牲にしてもいいのか。この思考実験「トロッコ問題」を取り上げた山口県の小中学校が.

生存者と犠牲者の数 2. 介入する傾向の強弱(クルマの進路を変えるか、何もしないか) 科学誌『Nature』に発表された論文によると、回答者の国籍や年齢、宗教などに関わらず、共通の傾向はあった。「動物よりは人間、少人数よりは多人数、高齢者よりは若者」が優先されたのだ。 また、この3原則ほどはっきりしてはいないが、社会的地位の高い人と交通規則を守っている人を守るという傾向も比較的強かった。ただ、それ以外では、地域ごとに誰を犠牲にするかについての意見が別れている。一方で、回答者を年齢や性別、学歴などでまとめても、それぞれのグループに特定の傾向はあまり見られなかったという。. ai(人工知能)が抱える問題点3つめは、トロッコ問題です。トロッコ問題とは、有名な倫理学の思考実験のことで、例えば次のような場面があったとしましょう。 線路を走っていたトロッコの制御が不能になった。. ai・人工知能・機械学習.

年現在の自動運転車は「絶対的な安全」は獲得できていないが、すでに「人の運転よりは安全」というレベルには到達している。 例えば人はまれに、高速道路を逆走してしまうが、自動運転車はそのようなミスを犯さない。 逆走のような極端な例を持ち出さなくても、自動運転車の空間把握力は優秀で、道路に起きる危険予知はすでに人の運転者を上回るといわれている。 AIは、この空間把握力や危険予知能力の向上に貢献する。 詳しくみていこう。. フィリッパ・フット が 1967年 に提起し、 ジュディス・ジャーヴィス・トムソン ( 英語版 ) 、 フランセス・キャム ( 英語版 ) 、 ピーター. See full list on hitouch-life.

トロッコ問題に関して、いろんな意見がありますね。 1人で考えるのではなく、たくさんの意見を聞いてみるのも価値がありますね。 実際、こう言った問題はいつから考えるべきなんでしょうか? 今回の問題って、小学生や中学生に対して行ったのが問題になったのであって、考えることの重要性は感じます。 個人的には大学生になって、専門性の高い学習をするようになってからでいいような気がします。. いわゆる「トロッコ問題」の自動運転車版について、クイズ形式でネット上で回答を集めたマサチューセッツ工科大学(MIT)メディアラボなどの. aiとトロッコ問題 トロッコ問題はあくまでも例え話であり、常識で考えれば、まず起きることはありません。 作業員が作業を行うならば普通は運休になるでしょうし、運休にならないなら作業はしないでしょう。. 自動運転×ディープラーニングの実力とは?(CHANGE MAKERS) jp/technology/11400 2. 僕なら「右にハンドルを切る」 そりゃ究極の選択だけれども、この状況では5人轢いてしまうよりも1人轢いてしまう方が全体的な被害が少ないとしか考えようがないからです。 功利主義の考え方ですね。 その一人がノーベル賞受賞者だったとしても、そんなことは判断材料にないのでね。単純に数字的に被害の少ない方を選ぶというだけです。.

. See full list on nissenad-digitalhub.

トロッコ 問題 ai

email: [email protected] - phone:(669) 529-1311 x 9146

ワンピース エロ い 漫画 -

-> 今 人気 の 漫画
-> 黒川 敦彦 加計 学園

トロッコ 問題 ai - カサンドラ


Sitemap 4

ちはや ふる 告白 -