ข่าว

นักวิจัยแปลว่าสัตว์เลี้ยงลูกด้วยนมที่ไม่ใช่มนุษย์ได้ยินเสียงอย่างไร

นักวิจัยแปลว่าสัตว์เลี้ยงลูกด้วยนมที่ไม่ใช่มนุษย์ได้ยินเสียงอย่างไร

สักวันหนึ่งผู้ที่สูญเสียการได้ยินอาจพูดได้อย่างชัดเจนด้วยผลงานของนักวิจัยจากมหาวิทยาลัยบราวน์

พวกเขาสามารถรับสัญญาณประสาทในสมองของลิงแสมชนิดหนึ่งซึ่งเป็นลิงโลกเก่าและแปลเป็นคำภาษาอังกฤษโดยใช้อินเทอร์เฟซคอมพิวเตอร์สมอง

งานนี้สามารถปูทางไปสู่การปลูกถ่ายสมองเพื่อช่วยผู้บกพร่องทางการได้ยิน

ที่เกี่ยวข้อง: จุดเด่นของการวิจัยประเภทที่แตกต่างกันของการสูญเสียการได้ยินและความจำเป็นสำหรับการรักษาใหม่ที่ไม่เหมือนใคร

กระบวนการไพรเมตที่ไม่ใช่มนุษย์ฟังดูเหมือนกับมนุษย์

"เป้าหมายที่ครอบคลุมคือการทำความเข้าใจวิธีการประมวลผลเสียงในสมองของเจ้าคณะให้ดีขึ้น" Arto Nurmikko ศาสตราจารย์จากคณะวิศวกรรมศาสตร์ของ Brown ผู้ร่วมวิจัยจากสถาบันวิทยาศาสตร์สมองของบราวน์คาร์นีย์และผู้เขียนอาวุโสของการศึกษากล่าวในสื่อ ปล่อยไฮไลต์งาน “ ซึ่งในที่สุดอาจนำไปสู่การทำเทียมระบบประสาทชนิดใหม่”

ทีมนักวิจัยกล่าวว่าระบบสมองของมนุษย์และสัตว์เลี้ยงลูกด้วยนมที่ไม่ใช่มนุษย์จะเหมือนกันในระหว่างขั้นตอนการประมวลผลเบื้องต้น มันเกิดขึ้นในคอร์เทกซ์การได้ยินโดยจัดเรียงเสียงตามสิ่งต่างๆเช่นระดับเสียงหรือโทนเสียง จากนั้นเสียงจะถูกประมวลผลในเยื่อหุ้มสมองทุติยภูมิ มันเป็นที่ที่เสียงที่แตกต่างกันเป็นคำพูด

ข้อมูลนั้นจะถูกส่งไปยังส่วนต่างๆของสมองเพื่อประมวลผลแล้วจึงพูด ในขณะที่สัตว์เลี้ยงลูกด้วยนมที่ไม่ใช่มนุษย์ไม่น่าจะเข้าใจความหมายของคำที่นักวิจัยต้องการเรียนรู้ว่าพวกเขาประมวลผลคำพูดอย่างไร

ในการทำเช่นนั้นพวกเขาบันทึกกิจกรรมของเซลล์ประสาทของลิงแสมในขณะที่พวกเขาฟังการบันทึกคำศัพท์ภาษาอังกฤษแต่ละคำและการเรียกลิงกัง

การบันทึกทำเครื่องหมายเป็นครั้งแรก

นักวิจัยได้อาศัยการปลูกถ่ายขนาดเท่าเมล็ดถั่วสองอันที่มีอาร์เรย์ไมโครอิเล็กโทรด 96 ช่องสัญญาณเพื่อรับการบันทึก

ลิงแสมสามารถได้ยินคำหนึ่งและสองพยางค์ ได้แก่ ต้นไม้ดีทิศเหนือจิ้งหรีดและโปรแกรม เป็นครั้งแรกที่นักวิทยาศาสตร์สามารถบันทึกข้อมูลการได้ยินที่ซับซ้อนได้ด้วยอาร์เรย์หลายอิเล็กโทรด

“ ก่อนหน้านี้งานได้รวบรวมข้อมูลจากเยื่อหุ้มสมองทุติยภูมิที่มีอิเล็กโทรดเดี่ยว แต่เท่าที่เรารู้ว่านี่เป็นการบันทึกแบบหลายอิเล็กโทรดครั้งแรกจากส่วนนี้ของสมอง” Nurmikko กล่าว “ โดยพื้นฐานแล้วเรามีโพสต์การฟังด้วยกล้องจุลทรรศน์เกือบ 200 รายการที่สามารถให้ข้อมูลที่สมบูรณ์และความละเอียดที่สูงขึ้นซึ่งจำเป็นต้องใช้”

RNN มีประสิทธิภาพดีกว่าอัลกอริทึมแบบดั้งเดิม

ส่วนหนึ่งของการศึกษามุ่งเน้นไปที่การพิจารณาว่าอัลกอริทึมแบบจำลองการถอดรหัสใดทำงานได้ดีกว่า Jihun Lee นักศึกษาระดับปริญญาเอกร่วมกับ Wilson Truccuolo ผู้เชี่ยวชาญด้านประสาทวิทยาเชิงคำนวณพบว่าเครือข่ายประสาทหรือ RNN ที่เกิดขึ้นซ้ำได้สร้างโครงสร้างที่มีความเที่ยงตรงสูงสุด

มันมีประสิทธิภาพสูงกว่าอัลกอริธึมแบบดั้งเดิมที่มีประสิทธิภาพในการถอดรหัสข้อมูลประสาทจากส่วนอื่น ๆ ของสมองอย่างมีประสิทธิภาพ เป้าหมายคือสักวันหนึ่งเพื่อพัฒนาประสาทเทียมที่สามารถช่วยฟื้นฟูการได้ยินให้กับผู้คน

“ สถานการณ์สมมติคือเราพัฒนาระบบที่เลี่ยงผ่านอุปกรณ์การได้ยินส่วนใหญ่และเข้าสู่สมองโดยตรง” Nurmikko กล่าว

“ ไมโครอิเล็กโทรดแบบเดียวกับที่เราใช้ในการบันทึกกิจกรรมของระบบประสาทในการศึกษานี้วันหนึ่งอาจถูกนำมาใช้เพื่อส่งกระแสไฟฟ้าจำนวนเล็กน้อยในรูปแบบที่ทำให้ผู้คนรับรู้ว่าเคยได้ยินเสียงที่เฉพาะเจาะจง” ผลงานของพวกเขาได้รับการตีพิมพ์ในวารสาร ชีววิทยาการสื่อสารธรรมชาติ.