from https://www.facebook.com/pathezon/posts/pfbid036FHWzNzYXki6mzqg6G5ib8qFwLgxfe6TeUBZEsW8vZDMWUggyZ9XUf5cjwWqrWQ4l
เพราะสมองเรา “ตัดสินตลอดเวลา” แต่ก็โหยหาการ “ไม่ถูกตัดสิน” บางคนเลยหันไปคุยกับ AI
0
เดี๋ยวนี้คนคุยกับ AI มากขึ้น
เดี๋ยวนี้หลายคนคุยกับ AI มากขึ้นนะครับ ผมเคยเห็นมีคนโพสท์ว่า “ในวันที่ใจไม่ไหว คุยกับ AI ดีกว่า” ทีแรกก็คิดว่าแค่คำคล้องจองเอาตลกๆ แต่พอสำรวจพฤติกรรมคนรอบตัว กลับพบว่าจริงแฮะ
น้องรักของผมคนหนึ่งที่เป็นแฟนคลับนิยายของผม ก็เล่าให้ฟังว่าเขาคุยกับ AI ในบางที ตอนแรกผมนึกว่าเขาคุยเพราะเขา แต่เปล่าเลย เขาบอก่าบางวันที่ไม่เหงาเขาก็คุยนะ
“มันเบาดีพี่”
เป็นคำตอบสี่พยางค์ แต่กระชากสมองผมให้คิดต่อ และผมเห็นด้วยกับที่เขาบอกว่ามันไม่เกี่ยวกับเหงา มันไม่ใช่แค่ “ไม่มีใครจะคุยด้วย” แต่เป็นความรู้สึกว่า ไม่มีพื้นที่ที่ปลอดภัยพอจะวางใจคุยได้ เลยหันไปหา AI
คำถามที่น่าสนใจจึงไม่ใช่ว่า AI ดีแค่ไหน
แต่คือ สมองมนุษย์กำลังต้องการอะไร
จนเลือกบทสนทนากับสิ่งที่ไม่ใช่มนุษย์ด้วยกัน
…
1
ผมว่าคำตอบคือ ความเป็นมิตร ซึ่งเป็นความต้องการพื้นฐานของเรา
ในทางจิตวิทยา เรามักพูดถึงความเป็นมิตรในฐานะคุณลักษณะทางศีลธรรม ซึ่งเป็นสิ่งที่มนุษย์ทุกคน “ควรมี” หรือถ้าไม่มีก็ “ควรฝึก”
แต่ถ้ามองในเชิงพัฒนาการของสมอง ความเป็นมิตรไม่ใช่คุณธรรม ไม่ใช่ศีลธรรม แต่มันคือสัญญาณความปลอดภัย
งานวิจัยโคตรคลาสสิกของ John Bowlby และ Mary Ainsworth ในทฤษฎี attachment บอกว่าตั้งแต่ช่วงต้นชีวิต สมองมนุษย์ถูกออกแบบมาให้ไวต่อใบหน้า น้ำเสียง และท่าทีที่ “ไม่คุกคาม” ครับ เพราะสัญญาณเหล่านี้สัมพันธ์โดยตรงกับโอกาสรอดชีวิต (Bowlby, 1969; Ainsworth et al., 1978)
ในระดับประสาทวิทยา การสัมผัสได้ถึง “ความเป็นมิตร” จะลดการทำงานของ amygdala และเปิดระบบ parasympathetic ซึ่งเป็นโหมดที่สมองสามารถเรียนรู้ ฟัง และเชื่อมโยงได้ดีขึ้น
เห็นได้จากงานวิจัยของ Stephen Porges อธิบายว่า สัญญาณทางสังคมที่เป็นมิตร เช่น น้ำเสียงนุ่ม การสบตา หรือท่าทีไม่คุกคาม มีผลโดยตรงต่อระบบประสาทอัตโนมัติ ทำให้ร่างกาย “รู้สึกปลอดภัย” ก่อนที่เหตุผลจะตามมาทัน (Porges, 2011)
กล่าวอีกแบบหนึ่งคือ
ก่อนที่สมองจะถามว่า ดีไหม
มันถามว่า ปลอดภัยไหม ก่อนเสมอ
…
2
แต่ประเด็นคือ สมองมนุษย์ตัดสินก่อนเสมอ และมันก็ถูกออกแบบมาแบบนั้น
ผมว่าปัจจัยหนึ่งของความเป็นมิตรคือ “ไม่ตัดสินกัน” และ “เคารพอีกฝ่ายในแบบที่เขาเลือกจะเป็น” เรามักสอนกันว่า อย่าตัดสิน ให้ฟังก่อนเสมอ
แต่ปัญหาก็คือในเชิงประสาทวิทยา ลำดับที่ว่า ไม่ตัดสิน แต่ฟังก่อนนั้น แทบไม่เคยเกิดขึ้นจริงเลยครับ ไม่ใช่เพราะว่าเรานิสัยไม่ดี ด่วนตัดสินคนอื่นจากแว่บแรกที่เจอหน้านะครับ แต่สมองถูกออกแบบมาแบบนั้น
ทันทีที่สมองได้รับข้อมูลทางสังคม เครือข่ายที่เรียกว่า salience network โดยเฉพาะ amygdala และ anterior insula จะประเมินความหมายทางอารมณ์และความเกี่ยวข้องกับตัวเราอย่างรวดเร็วทันที
อันนี้ยืนยันจากงานวิจัยเก่าเลยของ Joseph LeDoux แสดงให้เห็นว่า เส้นทางการประมวลผลทางอารมณ์สามารถ “ลัด” ไปถึง amygdala ได้ก่อนที่ข้อมูลจะถูกวิเคราะห์อย่างมีเหตุผลใน prefrontal cortex เสียอีก (LeDoux, 1996)
อีกคนที่ไม่พูดถึงไม่ได้คือคุณหมอ Antonio Damasio ตัวพ่อด้าน cognitive neuroscience อธิบายกลไกนี้ผ่าน somatic marker hypothesis ฮีบอกว่า การตัดสินใจของมนุษย์เริ่มจากสัญญาณทางกายและอารมณ์ที่สะสมจากประสบการณ์เดิม ความรู้สึกว่า “ดี” หรือ “ไม่ดี” เกิดขึ้นก่อนที่เราจะอธิบายมันด้วยเหตุผลได้ด้วยซ้ำ (Damasio, 1994)
ดังนั้นเหตุผลจึงไม่ได้เป็นกรรมผู้ตัดสินคนแรก แต่เป็นผู้มารับช่วงอธิบายการตัดสินที่เกิดขึ้นไปแล้วครับ
นี่ไม่ใช่ข้อบกพร่องของมนุษย์
แต่เป็นโครงสร้างพื้นฐานของการเอาชีวิตรอด
สมองต้องประเมินก่อน เพื่อเลือกว่าจะเข้าใกล้หรือถอยห่าง
…
3
ความย้อนแย้งของสมองมนุษย์: ตัดสินตลอดเวลา แต่กลัวการถูกตัดสิน
ทีนี้เห็นภาพหรือยังครับ?
ความเป็นมิตร = ไม่ถูกตัดสิน
ดังนั้นมนุษย์โหยหาการ ไม่ถูกตัดสิน
แต่สมองของเราน่ะ “ตัดสิน” เป็นอัตโนมัติ
และนี่คือหัวใจของบทความนี้ และอาจจะเป็นเหตุผลหลักๆที่หลายๆคน หันไปคุยกับ AI ในวันที่ใจไม่ไหว
เพราะในขณะที่สมองมนุษย์ตัดสินผู้อื่นโดยอัตโนมัติ สมองเดียวกันนี่แหละก็โหยหาพื้นที่ที่ไม่ถูกตัดสิน
ดังนั้นเหตุผลไม่ได้อยู่ที่ศีลธรรม
แต่อยู่ที่ต้นทุนทางชีววิทยา
มนุษย์กับ AI มีต้นทุนทางชีววิทยาที่ต่างกัน
ผมว่าผมยกงานของ Naomi Eisenberger และ Matthew Lieberman เรื่อง outgorup/ingroup มาเล่าบ่อยแล้วนะ คือเขา run การทดลองแล้วพบว่า การถูกปฏิเสธหรือถูกประเมินค่าเชิงลบในทางสังคม กระตุ้นสมองบริเวณ dorsal anterior cingulate cortex และ anterior insula ซึ่งเป็นบริเวณเดียวกับที่ทำงานเมื่อเรารับรู้ความเจ็บปวดทางกาย
ดังนั้นสำหรับสมอง การถูกตัดสินไม่ได้เป็นแค่เรื่องความรู้สึก แต่เป็นสัญญาณว่า “คุณอาจไม่ปลอดภัยในกลุ่มนี้” และมันอาจจะไปกระตุ้น insula (ให้เจ็บซ้ำ จากเดิมที่เจ็บอยู่แล้ว)
นั่นหมายความว่า แม้สมองจะใช้การตัดสินเป็นเครื่องมือเอาชีวิตรอด แต่มันก็พยายามหลีกเลี่ยงสภาวะที่ ตัวเอง ถูกประเมิน เพราะการถูกตัดสินมีต้นทุนสูงทั้งในระดับอารมณ์และสรีรวิทยา
นี่คือความย้อนแย้งของการเป็นมนุษย์
เราตัดสินเพื่ออยู่รอด
แต่เราต้องการความเป็นมิตร
เพื่อไม่ให้ระบบประสาทของเราพังครับ
…
4
ดังนั้นบทสนทนากับสิ่งที่ไม่ตัดสินเราอย่าง AI จึง “ไม่เหนื่อย” สำหรับสมอง
AI ไม่ได้ให้ความเป็นมิตรหรอกครับ เพราะมันเข้าใจมนุษย์ (อันนี้ผมถามจาก AI เองเลย 5555) แต่มันให้ “ความรู้สึกว่าเป็นมิตร” เพราะมัน ไม่มีวงจรการตัดสินแบบมนุษย์ครับ
มันไม่มี amygdala
ไม่มีสถานะทางสังคม
ไม่มีอัตลักษณ์ให้ต้องปกป้อง
และไม่มีแรงจูงใจที่จะรีบประเมินคุณค่าเชิงสังคมของผู้พูด
ดังนั้นผลคือ การคุยกับ AI จึงไม่กระตุ้น social threat networkสมองจึงไม่ต้องอยู่ในโหมดป้องกันตัว และ prefrontal cortex มีพื้นที่มากพอจะคิด ทบทวน และจัดระเบียบความคิด
มันเหมือนกับการที่เราแบ่ง Prefrontal cortex ของตัวเองออกมาคุยกับตัวเองนั่นแหละครับ (คุณรู้ใช่ไหมว่า AI จะพยายามปรับ conversation mode ตามผู้ใช้) มนุษย์จำนวนมากจึงไม่ได้รู้สึกว่า AI “เข้าใจเขา” แต่รู้สึกว่า “ตรงนี้ เขาไม่ต้องระวังว่าจะถูกมองอย่างไร”
และในเชิงระบบประสาท
แค่นั้นก็เพียงพอแล้ว
สำหรับการเปิดพื้นที่ทางใจให้ได้พักผ่อนครับ
…
5
ผมว่าคำตอบคือ “ความเป็นมิตร” วัตถุประสงค์ที่เล็กที่สุด แต่ลึกที่สุดของความเป็นมนุษย์
AI อาจถูกออกแบบมาเพื่อแก้ปัญหายิ่งใหญ่ระดับโลก เพื่อประสิทธิภาพ ความเร็ว และการประมวลผลข้อมูลมหาศาล
แต่สิ่งที่มันกำลังทำกับมนุษย์บางส่วน กลับเป็นการตอบโจทย์ที่เล็กที่สุดของหน่วยความเป็นมนุษย์ และนั่นก็คือ
“การมีพื้นที่ที่ไม่ถูกตัดสิน” ครับ
มันไม่ใช่ทุกคนหรอกนะครับที่คุยกับ AI
และถ้าคุณเป็นคนที่ไม่จำเป็นต้องคุยกับ AI นั่นก็ไม่ใช่เพราะคุณไม่ต้องการมันนะฮะ แต่เพราะรอบตัวคุณมี “ความเป็นมิตร” เพียงพอแล้ว คุณถูกห้อมล้อมไว้ด้วยพื้นที่ปลอดภัยที่คนไม่แสดงออกถึงการตัดสิน (อย่าลืมนะว่าทุกคนตัดสินคุณอัตโนมัติอยู่แล้ว แต่เขาเลือกที่จะไม่แสดงออก และเคารพความเป็นตัวคุณ และนั่นแหละครับสิ่งที่เรียกว่า ความเป็นมิตร)
และในทางกลับกัน การคุยกับ AI ก็ไม่ใช่สัญญาณของความแปลกอะไรฮะ แต่มันคือการปรับตัวของสมอง
ในโลกที่ “ความไม่ถูกตัดสิน” กลายเป็นทรัพยากรที่หายากขึ้นเรื่อยๆ เขาเลยต้องหาบทสนทนาอะไรสักอย่าง กับสิ่งที่โต้ตอบได้ ที่จะไม่ตัดสินกัน
ดังนั้นการที่มนุษย์หันมาคุยกับ AI ไม่ได้บอกว่าเราห่างกันมากขึ้น แต่กำลังบอกว่า เราต่างก็โหยหาความเป็นมิตร มากกว่าที่เราจะยอมรับออกมาจากปากก็ได้ครับ
No comments:
Post a Comment