ปิดโฆษณา

Apple บนบล็อก Machine Learning Journal ที่ตีพิมพ์ บทความใหม่ที่สรุปสิ่งที่น่าสนใจบางประการเกี่ยวกับการจดจำเสียงและการใช้ Siri บนลำโพง HomePod โดยหลักๆ แล้วอยู่ที่วิธีที่ HomePod สามารถจับคำสั่งเสียงของผู้ใช้ได้แม้ในสภาวะการทำงานที่บกพร่อง เช่น การเล่นเพลงที่ดังมาก เสียงรอบข้างในระดับสูง หรือผู้ใช้อยู่ห่างจากลำโพงเป็นระยะทางมาก

ด้วยธรรมชาติและความมุ่งมั่นของมัน ลำโพง HomePod จึงต้องสามารถทำงานได้ในสภาวะต่างๆ ผู้ใช้บางคนวางไว้บนโต๊ะข้างเตียง คนอื่นๆ "ทำความสะอาด" ไว้ที่มุมห้องนั่งเล่น หรือวางลำโพงไว้ใต้ทีวีที่กำลังเปิดเสียงดัง มีสถานการณ์และความเป็นไปได้มากมายจริงๆ และวิศวกรของ Apple ก็ต้องคิดถึงสถานการณ์เหล่านี้ทั้งหมดเมื่อออกแบบเทคโนโลยีที่ทำให้ HomePod "ได้ยิน" ในเกือบทุกสถานการณ์

เพื่อให้ HomePod สามารถลงทะเบียนคำสั่งเสียงในสภาพแวดล้อมที่ไม่เอื้ออำนวยได้จึงมีระบบที่ซับซ้อนมากในการรับและประมวลผลสัญญาณเสียง กระบวนการวิเคราะห์สัญญาณอินพุตประกอบด้วยหลายระดับและกลไกที่ทำงานบนพื้นฐานของอัลกอริธึมการเรียนรู้ด้วยตนเองที่สามารถกรองและวิเคราะห์สัญญาณเสียงที่เข้ามาได้อย่างเพียงพอเพื่อให้ HomePod ได้รับเฉพาะสิ่งที่ต้องการเท่านั้น

ตัวอย่างเช่น การประมวลผลแต่ละระดับ จะลบเสียงก้องออกจากเสียงที่ได้รับ ซึ่งปรากฏในสัญญาณที่ได้รับเนื่องจากการผลิต HomePod เช่นนี้ คนอื่นจะดูแลเรื่องเสียงรบกวนซึ่งมากเกินไปในสภาพบ้านเรือน - เปิดเครื่อง ไมโครเวฟ, เครื่องดูดฝุ่น หรือ เช่น กำลังเล่นโทรทัศน์ และสุดท้ายเกี่ยวกับเสียงสะท้อนที่เกิดจากรูปแบบของห้องและตำแหน่งที่ผู้ใช้ออกเสียงคำสั่งแต่ละคำสั่ง

Apple กล่าวถึงรายละเอียดที่กล่าวมาข้างต้นอย่างละเอียดในบทความต้นฉบับ ในระหว่างการพัฒนา HomePod ได้รับการทดสอบในสภาวะและสถานการณ์ต่างๆ มากมาย เพื่อให้วิศวกรสามารถจำลองสถานการณ์ในระหว่างที่จะใช้ลำโพงได้มากที่สุดเท่าที่จะเป็นไปได้ นอกจากนี้ระบบประมวลผลเสียงแบบหลายช่องสัญญาณยังควบคุมโปรเซสเซอร์ A8 ที่ค่อนข้างทรงพลังซึ่งเปิดอยู่ตลอดเวลาและ "ฟัง" และรอคำสั่งอยู่ตลอดเวลา ด้วยการคำนวณที่ค่อนข้างซับซ้อนและพลังการประมวลผลที่ค่อนข้างดี HomePod จึงสามารถทำงานได้ในเกือบทุกสภาวะ น่าเสียดายที่ฮาร์ดแวร์ระดับไฮเอนด์ถูกรั้งไว้โดยซอฟต์แวร์ที่ค่อนข้างไม่สมบูรณ์ (ไม่เคยได้ยินมาก่อน...) เนื่องจากผู้ช่วย Siri ล้าหลังคู่แข่งรายใหญ่ที่สุดทุกปี

โฮมพอด FB
.