اپل با انجام تحقیقی که نتیجه آن به زودی منتشر میشود، میخواهد توانایی سیری در درک صحبتهای افراد دارای لکنت زبان را بهبود دهد.
اپل با استفاده از ۲۸ هزار کلیپ صوتی برداشته شده از پادکستهایی که در آنها افراد دارای لکنت زبان شرکت کردهاند، یک بانک داده بزرگ ساخته و میخواهد از آن برای آموزش الگوریتمهای دستیار هوشمند سیری استفاده کند. سخنگوی اپل میگوید دادههای جمعآوری شده توسط این شرکت توانایی سیستمهای تشخیص صدا در درک الگوهای گفتاری ناهمگون (Atypical Speech Pattern) را بهبود میبخشند.
اپل علاوه بر اینکه در تلاش است تا توانایی سیری را در درک افراد دچار الگوهای گفتاری ناهمگون ارتقاء دهد، قابلیتی به نام Hold to Talk را به این دستیار هوشمند آورده که به کاربران اجازه میدهد مدت زمان گوش دادن سیری به حرفهایشان را کنترل کنند. این قابلیت سبب میشود تا سیری صحبتهای افراد دچار لکنت زبان را پیش از تمام شدن قطع نکند. علاوه بر این، به لطف قابلیت Type to Siri که اولین بار با iOS 11 معرفی شد، میتوان بدون صحبت کردن از این دستیار هوشمند استفاده کرد.
اپل میخواهد یافتههای تحقیقات خود درباره ارتقاء توانمندیهای سیری را هفته جاری در قالب یک مقاله منتشر کند که جزئیات بیشتری درباره فناوریهای بکار رفته و اقدامات این شرکت فاش خواهد کرد.
گوگل و آمازون نیز سرگرم آموزش دستیارهای صوتی خود یعنی «گوگل اسیستنت» و «آمازون الکسا» هستند تا این دو فناوری حرفهای تعداد بیشتری از کاربران-به ویژه کاربرانی که در حرف زدن مشکل دارند-را بهتر درک کنند. گوگل دادههای مربوط به گفتار ناهمگون را جمعآوری میکند و آمازون دسامبر سال گذشته میلادی صندوقی به نام Alexa Fund را راهاندازی کرد تا کاربرانی که از مشکلات گفتاری رنج میبرند، الگوریتمهای الکسا را به منظور درک الگوهای صدایی منحصر به فرد خود آموزش دهند.