いや、ギガジンからなんだけどさあ。
将来的に統合失調症になるかどうかが93%の正確性で自動分析可能に
これって、一歩間違うと、思い切り人権に関わってくるよなあ。
企業の採用や、学校の入試とかに使われて、選別かけるよーな。
どのくらいのエビデンスがあるんだろう?
この病気、発症前に対応を誤らなければ、発症リスク減るだろうし。
なんかなあ。
まあいいや、
いや、ギガジンからなんだけどさあ。
将来的に統合失調症になるかどうかが93%の正確性で自動分析可能に
これって、一歩間違うと、思い切り人権に関わってくるよなあ。
企業の採用や、学校の入試とかに使われて、選別かけるよーな。
どのくらいのエビデンスがあるんだろう?
この病気、発症前に対応を誤らなければ、発症リスク減るだろうし。
なんかなあ。
まあいいや、
View Comments (4)
AIで統合失調症になるのなら・・・
こんなに
苦しいのなら
悲しいのなら・・・
愛などいらぬ!!
公平な試算がされているとして、保険料が割高になったり、下がったりしたら、人権侵害と感じるんだろうね。
未来予測が確率でしかないので保険があるわけで。
公平さは結果からしかわからない。
今回統合失調症だけど、
危険思想の持ち主になる確率とか、
将来の予想稼得収入とか、
わからんけど、ビッグデータから予測されちゃうことはあるわけよ。
人権てなんだ?というところまで話は拡大するんだが・・・。
詳しいことはこいつ。
街の防犯カメラで、顔撮られて、
犯罪を犯す確率が高いとか言われて予防拘禁されたかないな。