คนตาบอดใช้คอมพิวเตอร์ได้อย่างไร (geek version)
คำถามที่คนตาบอด(น่าจะ)เกือบทุกคนมักจะเคยเจอ
ใช้คอมได้ยังไงอะ?
แล้วจะคลิกเม้าส์ยังไง?
คีบอร์ดต้องมีอักษรเบรลล์ใช่ไหม?
ต้องมีอุปกรณ์อะไรพิเศษหรือเปล่า?
ซึ่งถือเป็นคำถามเบสิกมากๆ ที่คนทั่วๆ ไปที่ไม่เคยรู้จักหรือสัมผัสชีวิตของคนตาบอดมาก่อนย่อมเกิดความสงสัย และอันที่จริงก็มีคนตาบอดจำนวนไม่น้อย เขียนตอบคำถามพวกนี้ไว้ในบล็อกส่วนตัวบ้าง หรือตามที่อื่นๆ บ้างในโลกอินเทอร์เน็ต เพียงแค่เราถามอากู๋ (Google) ก็จะได้คำตอบมาประมาณหนึ่ง
ซึ่งจากข้อมูลเหล่านี้ก็น่าจะตอบข้อสงสัยของคนที่ไม่รู้ได้ในระดับหนึ่ง แต่ไหนๆ ก็ไหนๆ ละ ในเมื่อคนอื่นๆ เขาก็เขียนกัน ทำไมเราจะเขียนบทความแนวๆ นี้อีกสักคนไม่ได้ (แล้วเอ็งจะเขียนเพิ่มอีกทำไมฟระ?) หลายๆ คนหลายๆ สำนวน เผื่ออ่านจากคนอื่นๆ แล้วยังไม่เก็ต หรือยังมีอะไรที่สงสัยอยู่ ก็หวังว่าบล็อกนี้จะตอบข้อสงสัยได้ทั้งหมดนะครับ >-<
หมายเหตุ: บล็อกนี้คิดว่ายาวแน่ๆ ถ้าใครสนใจเฉพาะหัวข้อใด ก็เลื่อนไปดูเฉพาะหัวข้อที่สนใจได้เลย ไม่ต้องอ่านทั้งหมดให้เสียเวลาก็ได้
ยุคก่อนประวัติศาสตร์
เชื่อว่าตั้งแต่ครั้งโบราณกาล ตั้งแต่สมัยที่มนุษย์ยังไม่รู้จักการบันทึกเหตุการณ์ต่างๆ ด้วยตัวอักษร หรือที่รู้จักกันในชื่อว่า ยุคก่อนประวัติศาสตร์นั้น โลกกลมๆ ใบนี้ก็ต้องมีคนพิการ มีคนตาบอดอาศัยอยู่ร่วมกับคนอื่นๆ เหมือนกับในยุคนี้เช่นกัน แต่ถ้าจะถามว่าแล้วพวกเขาดำรงค์ชีวิตอยู่กันได้อย่างไร จะสามารถใช้งาน gadget ในยุคนั้นๆ ได้ไหม ผู้เขียนเองก็คงมิสามารถบอกได้ และถ้ามีนักประวัติศาสตร์ท่านไหนมีเบาะแส จะมาเสริมข้อมูลในส่วนนี้ก็ยินดีนะคร้าบบบ (แล้วเอ็งจะเกริ่นขึ้นมาหาอะไรฟระ?)
ยุคหลังประวัติศาสตร์ (เกือบๆ จะถึงปัจจุบันละ)
แน่นอนว่าสิ่งหนึ่งที่คู่กับคนตาบอดก็คือ "เสียง" การฟังเพลง การร้องเพลง การเล่นดนตรี สิ่งเหล่านี้ล้วนต้องใช้เสียงเป็นหลักทั้งสิ้น ดังนั้น gadget หลักๆ ที่คนตาบอดจะมีโอกาสได้สัมผัสในอันดับต้นๆ ก็คงหนีไม่พ้นเหล่าบรรดาเครื่องเสียง ทั้งอันเล้ก อันใหญ่ ตามแต่สถานการณ์กันไป
Sound about gadget อย่างแรกๆ
โดย gadget กลุ่มแรกที่ผู้เขียนจะนำมาเริ่มปูพื้นเพื่อทำความเข้าใจว่าคนตาบอดสามารถใช้งาน gadget ต่างๆ ได้อย่างไรก็คงเริ่มจากเครื่องเล่นเทปคลาสเสซแบบพกพา หรือที่เรียกกันติดปากในบ้านเราว่า "sound about" นี่แหละ
ในยุคนั้น (น่าจะย้อนไปสัก 15 ปีอัพ) เครื่องเล่นพวกนี้ยังเป็นแบบ analog หรือเป็นปุ่มกด แบบที่ต้องกดลงไปจริงๆ ไม่ใช่ปุ่มสัมผัสแบบ digital ที่มีเข้ามาภายหลัง (และการใช้งานก็จะต่างออกไปนิดหน่อย จะอธิบายเพิ่มเติมต่อไป) เครื่องเล่นพวกนี้คนตาบอดเราสามารถใช้งานได้ง่ายๆ เพียงแค่ศึกษาฟังชั่นต่างๆ ซึ่งแน่นอนว่ามันก็มีเท่าที่ปุ่มบนเครื่องจะมีให้ ดังนั้นคนตาบอดก็แค่จำให้ได้ว่า กดปุ่มนี้เพื่ออะไร เลื่อนตรงนี้เพื่ออะไร จากนั้นก็ใช้งานกันไป ไม่มีอะไรยุ่งยาก เราก็แค่ใช้ประสาทสัมผัศที่เรามีอยู่ (แน่นอนว่ามันไม่ได้สูญเสียไปพร้อมกับการมองเห็นแต่อย่างใด) เช่นนิ้วในการคลำปุ่ม หูในการฟังว่ากดปุ่มนี้แล้วมีเสียงนะ เลื่อนปุ่มนี้แล้วเปิด AM นะ เลื่อนอีกทีเปลี่ยนไป FM นะ อะไรอย่างนี้ แน่นอนว่าถ้าคุณเกิดมาตาบอด และดันซวยมีอาการ "ปลาทอง" คือมีความจำสั้น(แต่รักยาวหรือเปล่าอันนี้ไม่น่าจะเกี่ยวกันนะ) ก็อาจจะดำเนินชีวิตได้ลำบากหน่อย เพราะ "ความจำ" เป็นสิ่งที่คนตาบอดต้องใช้มากกว่าคนปกติเสียหน่อย
จาก analog สู่ยุคกึ่ง digital
ถัดมาในยุคที่ sound about เริ่มถูกเรียกว่า Walkman ซึ่งเข้ามาพร้อมกับยุค digital มากขึ้น เครื่องเล่นพกพาพวกนี้ก็เริ่มมีปุ่มที่เป็น digital รวมเข้ามามากขึ้น จนถึงกลายเป็นปุ่ม digital ทั้งเครื่อง ถามว่าปัญหาคืออะไร ในเมื่อมันก็ยังมีปุ่ม เป็น ปุ่ม ให้สัมผัสได้อยู่ ไม่ได้เป็น touch screen แบบสมาร์ทโฟนเดี๋ยวนี้สักหน่อย คำตอบคือ การใช้งานจากฟังชั่นของปุ่มแต่ละปุ่มนั้นไม่ใช่ปัญหา แต่ปัญหามันไปอยู่ที่ฟังชั่นมันมีมากขึ้นต่างหาก ทำให้เริ่มมีระบบ "เมนู" ที่ต้องกดเข้าไป แล้วก็กดอีกเพื่อเลือกฟังชั่นอื่นๆ เพิ่มเติม ในส่วนนี้ทำให้คนตาบอดต้องใช้ "ความจำ" เพิ่มมากขึ้น นอกจากต้องจำตำแหน่งและฟังชั่นของปุ่มแล้ว ยังต้องจำว่าถ้ากดปุ่มนี้เข้าเมนูนะ ต้องกดอีกปุ่มนึงเพื่อเลื่อนเมนูไปกี่ที เพื่อที่จะถึงเมนูนี้ๆๆ ต้องกดเข้าไปเพื่อเลือกฟังชั่นนี้ๆ นะ ถ้าเมนูไม่ได้ซับซ้อนมาก มีแค่ชั้นเดียว ก็ยังพอไหว แต่ถ้ามันมีเยอะเกิน และบางอย่างก็ไม่ได้ใช้ เป็นผม ผมก็ไม่มานั่งจำเหมือนกัน
แต่... ถึงมันจะทำให้เราต้องใช้ความจำเยอะขึ้น แต่นั่นมันก็แลกมากับฟังชั่นที่มากขึ้นตามไปด้วยเช่นกัน แถมมันยังมีอีกอย่างที่ความเป็น digital เข้ามาช่วยให้คนตาบอดสามารถใช้งานมันได้สะดวกขึ้นอีกหน่อย นั่นก็คือ
"เสียงติ๊ดๆ" หลายคนอาจไม่สังเกต หลายคนอาจมองข้าม แต่อย่าง Sony Walkman รุ่นที่เป็น digital (ซึ่งปัจจุบันเลิกผลิตไปแล้ว) เวลาเรากดปุ่มต่างๆ มันจะมีเสียง ติ๊ดๆ และมันก็ไม่ได้เป็นเสียงเดียวกันทุกครั้งด้วย บางทีอาจเป็นติ๊ดเดียวสั้นๆ หรือบางทีอาจเป็นตี๊ดยาวๆ หรือเป็นเสียงติ๊ดๆ 2 หน 3 หน ต่างๆ กันไป (ถ้าใครจะเคยสังเกต) สิ่งเหล่านี้ผู้ผลิตเขาออกแบบมาอย่างมีเหตุผลแน่นอน (ถึงเขาไม่ตั้งใจผมก็ขอคิดเข้าข้างตัวเองล่ะนะ) ว่ามันเป็นการทำให้คนตาบอดสามารถใช้อุปกรณ์พวกนี้ได้สะดวกขึ้น โดยใช้ความแตกต่างของเสียงติ๊ดๆ พวกนี้แหละเป็นจุดสังเกต ตัวอย่างเช่นการเลื่อนสถานีของคลื่นวิทยุที่เราเม็มไว้ คนปกติก็จะสามารถดูจากหน้าจอได้ว่าเราอยู่ที่คลื่นไหน จะกดเปลี่ยนคลื่นไปยังคลื่นที่อยู่ห่างๆ กันก็กดค้างแล้วดูเลขเอาง่ายๆ แต่ถ้าสำหรับคนตาบอดที่ดูเลขไม่ได้ล่ะ เขาก็ทำเสียงมาให้เราสังเกต โดยพอวนไปถึงคลื่นแรกจากเสียงติ๊ดเดียว มันก็จะกลายเป็นสองติ๊ด เพื่อให้สังเกตได้นะว่านี่วนมาถึงคลื่นแรกแล้ว จะย้อนหรือจะกดต่อไป เพื่อจะไปยังคลื่นที่ต้องการก็แล้วแต่จะลองคำนวณกันดู
หลักการคล้ายๆ กันนี้ยังถูกใช้ในการเข้าไปในเมนู การเปลี่ยนฟังชั่นบางอย่าง เช่นกรอเดินหน้า/กรอถอยหลัง กดเล่น/กดหยุด/กดปิด ซึ่งมันจะทำให้คนตาบอดไม่ต้องจำหรือลองฟังผล เพราะถ้ากดปุ่มนี้แล้วได้ยินเสียงติ๊ดแบบนี้ ก็จะมั่นใจได้เลยว่าเรากำลังกรอถอยหลังนะ ไม่ใช่กดพลาดไปกรอเดินหน้า เป็นต้น
จาก walkman สู่ iPod
ก่อนที่คนตาบอดจะรู้จัก iPod (ข้อความนี้เป็นความคิดเห็นส่วนตัวมิใช่ข้อเท็จจริง) คนตาบอดส่วนมากก็จะรู้จักเครื่องเล่นเพลง MP3 ที่น่าตาเป็นคล้ายๆ แฟลชไดร์ฟกันมาก่อนซะส่วนมาก แน่นอนว่าเครื่องเล่นพวกนี้มาในรูปแบบของ digital อย่างเต็มตัว การใช้งานแทบทุกอย่างต้องใช้งานผ่านการเข้าเมนู (บางทีแค่เพิ่ม/ลดเสียงยังต้องกดคำสั่งพิเศษเลย ไม่ทำเป็นปุ่มแยกมาให้) ทำให้การใช้งานของคนตาบอดต้องใช้ "ความจำ" กันมากขึ้นไปอีกระดับ เพราะว่าเท่าที่ผู้เขียนพบมา MP3 Player ส่วนมาก จะไม่มีเสียงติ๊ดๆ มาเหมือนกับตอน Walkman แล้ว ดังนั้นคนที่จะใช้งานก็ต้องจำเมนูต่างๆ ให้ได้มากขึ้น ตัวอย่างง่ายๆ เช่นการจะเข้าไปเปลี่ยน EQ ก็ต้องจำลำดับขั้นตอนกันมิใช่น้อยแล้ว
แน่นอนว่าอุปกรณ์ยอดนิยมแห่งยุค ที่เป็นผู้ปลุกกระแสเพลง digital อย่าง iPod นั้นก็ไม่ได้ละเลยกลุ่มผู้พิการทางสายตาแต่อย่างใด โดยที่ใน iPod (น่าจะทุกรุ่นตั้งแต่รุ่นแรกแล้ว) เมื่อเราเลื่อน clipview มันจะมีเสียงดังคลิกๆ เบาๆ ให้ได้ยิน (ถ้าไม่ได้เข้าไปปิดใน settings อะนะ) ซึ่งในส่วนนี้ มันก็ช่วยคนตาบอดคล้ายกับเสียงติ๊ดๆ ใน Walkman นั่นแล คือเป็นจุดสังเกตในการไปยังแต่ละจุดหรือแต่ละฟังชั่น อย่างน้อยๆ เลยก็ทำให้เรารู้ว่าเราเปิดเครื่องแล้วนะ เพราะพอเลื่อนๆ clipview ดู มันก็จะมีเสียง ถ้ายังไม่ได้เปิด มันก็จะยังไม่มีเสียง แต่มันก็ยังต้องใช้ความจำของผู้ใช้เองอีกอยู่ดีถ้าคุณจะเข้าไปตั้งค่า ซึ่งในตัว iPod เองก็มีอะไรให้ตั้งค่า หรือเมนูการเล่นเพลงให้เลือกหลายแบบเสียด้วยสิ ใครจะจำหมดล่ะนั่น...
ต่อมามันจึงเกิด MP3 player แบบที่มีเสียงพูดมาให้ในตัว คือเมื่อเลื่อนไปยังเมนูต่างๆ ก็จะมีเสียงพูดบอกให้ผู้ใช้ทราบว่าอยู่ที่เมนูนี้แล้วนะ อะไรประมาณนี้ โดยหลักๆ เสียงพูดพวกนี้ก็จะอธิบายได้แค่เมนู ไม่สามารถบอกชื่อเพลง หรือรายละเอียดอื่นๆ ที่เพิ่มขึ้นมาภายหลังได้ เนื่องจากเป็นการบันทึกไฟล์เสียงแล้วยัดรวมมากับ firmware แล้วใช้การเล่นไฟล์เสียง เมื่อผู้ใช้ไปอยู่ยังตำแหน่งนั้นๆ แต่แน่นอนว่ามันก็ดีกว่าการที่เราจะต้องมานั่งจำเมนูอะนะ
เครื่องเล่นดังกล่าวอาจจะไม่แพร่หลายนัก อาจจะเรียกว่ามันเป็นอุปกรณ์ที่มีตลาดเฉพาะกลุ่มก็ได้ คือไม่ได้นำเข้ามาขายหรือโฆษณาอย่างแพร่หลาย คนตาบอดที่ซื้อหาเครื่องเล่นแบบที่มีเสียงพูดแบบนี้มาใช้ก็คงมีไม่มาก (ผู้เขียนเองก็ไม่เคยใช้เลยสักตัว) จนเมื่อไม่นานมานี้ ด้วยความที่เครื่องเล่น MP3 ได้รับความนิยมอย่างมาก จนทำให้เกิดกลุ่มนักพัฒนาอิสระ ที่นำ Firmware ของเครื่องเล่นบางรุ่นบางยี่ห้อ ไป monify เพื่อเพิ่มความสามารถ และนำมาแจกจ่ายให้คนทั่วไปได้ใช้งานกัน เช่น Rockbox
พวกเขาก็ไม่ลืมที่จะคิดถึงกลุ่มคนตาบอด (หรือมีคนตาบอดเองนั่นแหละไปเรียกร้อง หรือร่วมอยู่ในกลุ่มนักพัฒนาเหล่านั้นด้วย) จึงทำให้ firmware monify นี้มีการเพิ่มฟังชั่นเสียงเข้าไปด้วย คล้ายๆ กับอุปกรณ์ที่กล่าวมาข้างต้น ต่างกันตรงที่เราไม่จำเป็นต้องใช้เครื่องเล่นจากบริษัทเฉพาะ แต่สามารถใช้เครื่องเล่นที่ได้รับความนิยมกันทั่วไป (แน่นอนล่ะถ้าเครื่องรุ่นนั้นไม่ได้รับความนิยม เขาคงไม่เอามา monify firmware กันหรอก) ได้เหมือนคนปกติ แต่ลักษณะการใช้งานก็จะยังคล้ายๆ กัน คืออ่านได้หลักๆ เฉพาะตัวเมนู ถึงแม้จะมีความพยายามให้เรา generate ชื่อไฟล์/โฟเดอร์ ให้มันอ่านได้ก็ตาม แต่ก็ทำค่อนข้างลำบากพอสมควร
ซึ่งฟีเจอร์เสียงพูดแบบนี้ Apple ก็ได้ใส่เข้ามาใน iPod nano ตั้งแต่ 4th generation เช่นกัน จนมาถึง iPod nano 6th gen. มันก็สามารถพูดภาษาไทยได้ด้วย!
ขอขอบคุณพี่กั้งแห่งเว็บ SiamPod ที่ทำคลิปทดสอบการใช้งานด้วยครับ
มาถึง ยุคปัจจุบัน
จาก gadget ที่ฟังชั่นไม่มากใช้แค่ความจำก็พอ จนมาถึง gadget ที่ไฮเทคมากขึ้น มีฟังชั่นการใช้งานที่มากขึ้น เราก็จะเห็นว่า "เสียง" ไม่ว่าจะเสียงติ๊ดๆ เสียงอ่าน หรือเสียงพูด เริ่มมีส่วนในการใช้งานของคนตาบอดมากขึ้น ความจริงแล้วผู้เขียนไม่ได้อธิบาย gadget ที่สำคัญในยุคกึ่ง digital ไปอย่างนึง ก็คือ "โทรศัพท์" นั่นเอง ซึ่งก็เพราะว่ามันยังไม่มีจุดเด่นอะไรมาก การใช้งานก็ต้องอาศัยความจำเป็นหลัก เหมือนอุปกรณ์อื่นๆ ในยุคกึ่ง digital นั่นเอง จุดเปลี่ยนจะมาอยู่ในช่วงที่โทรศัพท์ธรรมดา กลายมาเป็น "สมาร์ทโฟน" เสียมากกว่า ซึ่งจะอธิบายต่อไป...
เริ่มมาใช้คอมพิวเตอร์กันแล้วล่ะ
ความจริงแล้วการใช้งานคอมพิวเตอร์ของคนตาบอดนั้นมีมานานพอสมควรแล้ว ตั้งแต่สมัยที่ยังเป็นระบบปฏิบัติการ DOS คนตาบอดเราก็สามารถใช้งานคอมพิวเตอร์กันได้แล้ว โดยที่สิ่งสำคัญของการใช้คอมพิวเตอร์ของคนตาบอดนั่นก็คือ "เสียงอ่าน" ในยุคแรกๆ ที่เป็น DOS การอ่านนี้ยังต้องใช้อุปกรณ์ระดับ hardware เข้ามาเสริม ถึงจะทำให้คอมพิวเตอร์สามารถอ่านออกเสียงมาให้เราฟังกันได้ จนมาถึงยุคของ Windows นี่เอง ที่การอ่านนี้ถูกพัฒนามาจนกลายเป็นแค่ซอฟต์แวร์ตัวนึงที่ทำงานอยู่ภายใต้ระบบปฏิบัติการ
input
หลักการใช้คอมพิวเตอร์อย่างแรกที่ควรกล่าวถึงก็ควรเป็นการป้อนข้อมูลเข้า เพื่อสั่งงานให้คอมพิวเตอร์ทำงาน หรือการ input หลายคนสงสัยว่าคนตาบอดจะใช้งานในส่วนนี้ได้อย่างไร เราจะคลิกเม้าส์ ถูกเหรอ แป้นคีบอร์ดต้องมีอักษรเบรลล์แน่ๆ เลย ข้อสงสัยเหล่านี้ล้วนแล้วแต่เป็นความเข้าใจผิดโดยสิ้นเชิง...
อย่างแรกคนตาบอดจะใช้เม้าส์ (mouse) ได้อย่างไร คำตอบคือใช้ไม่ได้ (ก็ไม่ต้องใช้) ไม่ได้กวนนะ 55 แต่การ input ด้วยเม้าส์ที่คนทั่วไปคุ้นเคย และเข้าใจว่าเป็นช่องทางการ input หลักนั้นความจริงมันเพิ่งถูกนำเข้ามาใช้บนระบบปฏิบัติการใหม่ๆ อย่าง Windows Mac OS หรือ Linux เมื่อตอนหลังๆ มานี้เอง ก่อนหน้านี้ตอนที่ยังเป็น DOS การ input ทั้งหมดเราก็ใช้เพียงแค่คีบอร์ดล้วนๆ และเราก็สามารถทำได้ทุกอย่าง ทำให้เกิดระบบปฏิบัติการใหม่ๆ ที่ทำให้คุณมีเม้าส์ใช้กันก็ยังได้ไงล่ะ 55
OK ใช้เม้าส์ไม่ได้ ก็ต้องใช้คีบอร์ด แล้วใช้คีบอร์ดได้ไงล่ะ มันมีเบรลล์ให้สัมผัสเหรอ? คำตอบคือก็ไม่มีอีกล่ะครับ คนตาบอดใช้คีบอร์ดเหมือนกับคนปกติที่เรียนพิมพ์ดีดสัมผัสมา (คือควรจะเป็นอย่างนั้นอะนะ) อย่างผู้เขียนเอง ก็เริ่มเรียนพิมพ์ดีดมาก่อน จากนั้นก็ถึงได้มาเริ่มเรียนคอมพิวเตอร์ (ยังเป็น DOS อยู่เลย T_T) ไม่ได้แก่นะฮ้าฟ สมัยนั้นก็มี Windows 95/98 แล้ว แต่ที่โรงเรียนเขายังสอน DOS อะ ~-~
คือถ้าเป็นคีบอร์ดมาตรฐาน ก็เข้าใจได้ง่ายหน่อย เพราะนอกจากแป้นพิมพ์แล้ว ก็จะมีพวกปุ่ม function (f1-f12) sixkey (home/end page up/page down insert/delete) และ numpad ที่เป็นเหมือนปุ่มเครื่องคิดเลขที่อยู่ด้านขวานั่นแหละ อันนี้ก็จะเบๆ เหมือนกันหมด
แต่ในปัจจุบันไม่ว่าจะเป็นคีบอร์ดแบบอลังการที่มี shortcut มาให้ล้นเหลือ หรือจะเป็นแป้นคีบอร์ดบนโน้ตบุ๊กแต่ละรุ่นแต่ละยี่ห้อ ซึ่งมีการออกแบบที่ต่างกันอยู่บ้างนั้น ก็ต้องทำให้เราต้องใช้ความจำ+ความคุ้นเคยในการใช้งานอีกเช่นเดิม แน่นอนว่าโดยสรุปก็ไม่มีความจำเป็นใดๆ ที่จะต้องมีอักษรเบรลล์ให้สัมผัส
ทั้งนี้ก็มีจุดสังเกตเล็กๆ ที่บางคนอาจมองข้ามไป บนแป้นคีบอร์ดที่เป็นมาตรฐานหน่อยนั้น เราจะเห็นว่าตรงปุ่มตำแหน่งที่วางนิ้วชี้บนแป้นเหย้า (f/j ด/ไม้เอก) มันจะมีส่วนที่นูนๆ ขึ้นมาให้พอสัมผัสได้นิดนึง ส่วนนี้ก็เป็นส่วนที่สำคัญ เพราะจะทำให้ไม่ว่าคนตาบอดหรือคนตาปกติ สามารถเลื่อนนิ้วกลับมาอยู่ในจุดเริ่มต้นได้อย่างรวดเร็ว โดยหลักการเดียวกันนี้ เราจะพบในปุ่มเลข 5 ของเครื่องคิดเลข และโทรศัพท์เช่นกันด้วย
output
อย่างที่ได้เกริ่นๆ ไปบ้างแล้วว่า output สำคัญสำหรับคนตาบอดก็คือ "เสียง" สำหรับคนปกติ output หลักที่รับจากคอมพิวเตอร์ก็คือ monitor หรือหน้าจอ ซึ่งแน่นอนอยู่แล้วว่าคนตาบอด(สนิท) คงจะไม่สามารถมองเห็นหน้าจอ และอ่านข้อความในนั้นได้อยู่แล้ว กรณียกเว้นสำหรับคนตาบอดแบบเลือนราง หรือที่เรียกว่า Low vision จะมีทางเลือกที่ต่างออกไป โดยจะมีโปรแกรมที่ช่วยขยายหน้าจอ (zoom) เพื่อทำให้ขนาดของตัวหนังสือใหญ่ขึ้นจนสามารถอ่านเห็นได้โดยไม่ต้องเพ่งจนเกินไป
ดังนั้นคนตาบอดจึงจะต้องใช้โปรแกรมอ่านหน้าจอ หรือ Screen reader ซึ่งมันจะประมวลผลที่แสดงอยู่บนหน้าจอ และแปลงให้เป็นข้อความ text จากนั้นก็ส่งต่อให้โปรแกรม text to speech-TTS ที่จะทำหน้าที่แปลงข้อความที่ประมวลผลออกมาได้นั้นให้กลายเป็นเสียงพูด ซึ่งก็ต้องอาศัย Speech synthesis ซึ่งเป็นส่วนสุดท้ายที่จะพูดข้อความออกมา โดยตัว Speech synthesis นี้จะเป็นส่วนที่จะกำหนดลักษณะของเสียงอ่าน ภาษาที่อ่าน ว่าง่ายๆ เป็นเหมือนกล่องเสียงที่จะแตกต่างกันไปได้นั่นเอง
ซึ่งโดยความจริงแล้ว โปรแกรมอ่านหน้าจอ ก็จะรวมเอาโปรแกรมสองตัวหลังมาไว้ในตัวด้วยเรียบร้อยแล้วเพื่อการทำงานอย่างเป็นระบบ แต่ที่ผู้เขียนต้องแยกการทำงานให้เห็นอย่างชัดเจนก็เพื่อความ geek เอ้ยไม่ใช่.. เพื่อความเข้าใจ และการง่ายต่อการอธิบายรายละเอียดในประเด็นต่อๆ ไปนั่นเอง
นอกจากนี้ก็ยังมีอุปกรณ์สำหรับ output อีกอย่างหนึ่ง ซึ่งเราจะเรียกกันสั้นๆ ว่า "Braille display" แต่ชื่ออย่างเป็นทางการของมันคือ refreshable Braille display ซึ่งแทนที่มันจะประมวลผลจาก monitor แล้วแปลงเป็นเสียงพูดเหมือนกับ screen reader มันก็แปลงข้อความเหล่านั้นให้มาแสดงผลเป็นอักษรเบรลล์แทน แน่นอนว่าการแสดงผลแบบนี้ต้องใช้อุปกรณ์พิเศษแยกออกมา ข้อจำกัดของเจ้า Braille display ก็คือ การสร้างส่วนแสดงผลที่เป็นจุดเบรลล์และสามารถปรับเปลี่ยนรูปแบบได้ตลอดเวลา (refreshable) นี้มีต้นทุนทางเทคโนโลยีที่แพงมาก รวมไปถึงข้อจำกัดด้านการออกแบบ ความกว้าง ความยาว เลยทำให้ตัวอุปกรณ์มีข้อจำกัดในการแสดงผล คือมันจะแสดงผลได้เพียง 1/2 บรรทัดเท่านั้น และแต่ละบรรทัดก็สามารถแสดงผลได้ 40 cells (cells เทียบเท่าได้กับ 1 character)
จากข้อจำกัดด้านการแสดงผลดังกล่าว รวมถึงด้วยที่มันเป็น "อุปกรณ์พิเศษ" มันจึงมีราคาแพง(มาก) ดังนั้นโปรแกรมอ่านหน้าจอจึงได้รับความนิยมมากกว่าด้วยข้อดีและความสะดวกที่เหนือกว่านั่นเอง
FYI: "อักษรเบรลล์" ไม่ใช่ "ภาษาเบรลล์" เนื่องจากอักษรเบรลล์เป็นเพียงโค้ตที่กำหนดขึ้นมาเพื่อสื่อความหมายแทนตัวอักษรในภาษาต่างๆ เท่านั้น ไม่ได้เป็น "ภาษา" ใหม่แต่อย่างใด เปรียบเทียบง่ายๆ ก็เหมือนกับภาษาต่างๆ บนคอมพิวเตอร์ที่จะมีฟ็อน (font) หลายๆ แบบ "อักษรเบรลล์" ก็เป็นเพียงฟ็อนอีกรูปแบบหนึ่งเท่านั้น ดังนั้นการเรียก "อักษรเบรลล์" ว่า "ภาษาเบรลล์" จึงเป็นสิ่งที่ไม่ถูกต้อง
Screen Reader
ถ้าพอเข้าใจหลักการคร่าวๆ กันมาแล้ว สำหรับคนที่อยากรู้ลงไปลึกอีกหน่อย ส่วนของโปรแกรมอ่านหน้าจอหรือ Screen Reader นี้ก็มีรายละเอียดอีกมากพอสมควร
เริ่มตั้งแต่ โปรแกรมที่ได้รับความนิยมใช้กัน เป็นโปรแกรมที่มีค่าใช้จ่ายในการใช้งาน (ไม่ฟรีนั่นเอง) คือ Jaws for Windows โปรแกรมตัวนี้มีราคาค่อนข้างสูงมาก ราวๆ $800 แต่ที่มันได้รับความนิยมมาก ไม่ใช่คนตาบอดทั้งโลกเป็นคนรวยสามารถหาซื้อมาใช้กันได้อย่างชิลๆ อะไรหรอก ก็ต้องยอมรับกันแบบไม่ซึมว่า ส่วนมากก็ละเมิดลิขสิทธิ์ใช้งานกันทั้งนั้น
สาเหตุที่มันได้รับความนิยมก็เพราะมันสามารถทำให้เราใช้งาน Windows ได้ดีที่สุด ถ้าเทียบความสามารถกับโปรแกรมอ่านหน้าจอตัวอื่นๆ ที่มีในท้องตลาด ไม่ว่าจะฟรีหรือเสียงเงินเหมือนกันก็ตาม แน่นอนว่าโปรแกรมที่มีราคาแพง ทุนวิจัยและพัฒนาก็ต้องสูงตามไปด้วย ดังนั้นก็ไม่น่าแปลกใจที่เขาจะสามารถพัฒนาโปรแกรมให้ดีที่สุดในท้องตลาดได้
นอกจากนี้ก็ยังมีโปรแกรมอ่านหน้าจอที่ฟรีและดี อยู่บ้างเช่นกัน นั่นก็คือ NVDA NonVisual Desktop Access (NVDA)เป็นโปรแกรมอ่านหน้าจอที่ free และเป็น open source เกิดขึ้นมาด้วยความร่วมมือของชุมชน แน่นอนว่ามันยังมีความสามารถไม่เท่าโปรแกรมเสียเงินอย่าง Jaws แต่ถ้าเทียบในการใช้งานทั่วๆ ไป ไม่จำเป็นต้องใช้อะไรที่ลึกๆ มากนักแล้ว ก็ถือว่าโปรแกรมตัวนี้ก็เพียงพอต่อการใช้งานในชีวิตประจำวันได้ในระดับหนึ่ง
แต่ผู้เขียนเชื่อว่าสาเหตุที่การละเมิดลิขสิทธิ์โปรแกรม Jaws ยังสูงอยู่สาเหตุนึงมาจาก "ความเคยชิน" เนื่องจาก NVDA นี้มาภายหลัง คนจึงเคยชินกับการใช้โปรแกรม Jaws และก็สอนการใช้งานกันต่อๆ มารุ่นสู่รุ่น ถ้าเราสอนคนที่ไม่เคยใช้งานโปรแกรม Jaws มาก่อนเลยให้ใช้ NVDA ผู้เขียนเชื่อว่าพวกเขาก็จะใช้งานได้อย่างไม่รู้สึกติดขัดอะไร เพราะถ้าจะว่าไปจริงๆ คนที่ใช้ Jaws แล้วใช้ฟังชั่นที่ NVDA ให้ไม่ได้จริงๆ ก็คงเป็นแค่ส่วนน้อยเท่านั้น
Screen Reader และการใช้งานทั่วไป
โดยหลักการทำงานของโปรแกรมอ่านหน้าจอที่ได้อธิบายไปตอนต้นแล้ว ยังมีอีกส่วนหนึ่งที่ผู้เขียนแอบข้ามไป ซึ่งมันควรจะอยู่รวมกับส่วนของ input นั่นก็คือการใช้งานมันนั่นเอง
การใช้งานโปรแกรมอ่านหน้าจอจะต้องใช้คำสั่งลัด (shortcut keys) คือการกดปุ่มต่างๆ บนคีบอร์ดนี่เอง เปรียบเทียบให้เข้าใจง่ายๆ ก็เหมือนกับการที่คุณกดคำสั่ง Control+c เพื่อ copy กด Control+v เพื่อ paste นั่นแหละ แต่ในการใช้งานโปรแกรมอ่านหน้าจอ หรือจะเรียกรวมๆ ว่าการใช้งานคอมพิวเตอร์ของคนตาบอดก็ไม่ผิดนัก คำสั่งลัดพวกนี้นี่แหละเป็นหัวใจหลัก ซึ่งคำสั่งลัดที่มีมาให้อยู่แล้วในระบบปฏิบัติการเช่น Windows ก็จะถูกนำมาใช้งานด้วย รวมถึงคำสั่งลัดที่เอาไว้อ่านสถานะต่างๆ ที่มีเฉพาะในโปรแกรมอ่านหน้าจออีกด้วย
โดยที่โปรแกรมอ่านหน้าจอแต่ละตัว ก็อาจจะมีคำสั่งลัดที่ต่างกันไป แต่โดยรวมแล้วก็จะใกล้เคียงกันให้มากที่สุด เหตุผลข้อหนึ่งคงเพราะเพื่อประสบการณ์ของผู้ใช้ จะได้รู้สึกว่าถ้าเปลี่ยนจากตัวนี้ มาใช้ตัวนี้ จะได้ไม่รู้สึกแตกต่างมากเกินไป (ผู้เขียนเปรียบเทียบระหว่าง Jaws/NVDA โปรแกรมอ่านหน้าจอตัวอื่นๆ อาจไม่เป็นเช่นเดียวกันนี้ก็เป็นได้)
ดังนั้นเราก็จะเห็นว่าในการใช้งานคอมพิวเตอร์ของคนตาบอด เราก็ต้องใช้ "ความจำ" อีกแล้วในการจำคำสั่งลัดต่างๆ ที่น่าจะมีเกิน 100 คำสั่ง ถ้ารวมคำสั่งเฉพาะที่ใช้กับโปรแกรมบางโปรแกรมเข้าไปด้วย
นอกจากความสามารถของตัวโปรแกรมอ่านหน้าจอเองแล้ว อีกปัจจัยที่คนตาบอดจะสามารถใช้งานคอมพิวเตอร์ได้หรือไม่ก็คือการออกแบบน่าตาของโปรแกรมแต่ละตัว
User interface (UI) เป็นส่วนสำคัญที่จะกำหนดว่าคนตาบอดจะสามารถใช้งานโปรแกรมนั้นๆ ได้หรือไม่ เนื่องจากตัวโปรแกรมอ่านหน้าจอนั้น มันไม่สามารถทำให้คนตาบอดใช้งานได้ทุกสถานการณ์ ขึ้นอยู่กับว่ามันสามารถเข้าใจ output ของโปรแกรมนั้นๆ ได้แค่ไหน ถ้าโปรแกรมนั้นๆ มีน่าตาแปลกๆ ไม่ได้พัฒนาบนพื้นฐานตามมาตรฐานที่กำหนดไว้ คนตาบอดก็อาจจะใช้โปรแกรมนั้นไม่ได้เลย หรือใช้ได้แบบลำบากมากๆ
เสียงสังเคราะห์ภาษาไทย (Thai speech synthesizer)
แน่นอนว่าเท่าที่กล่าวมาข้างต้น "เสียงพูด" ที่โปรแกรมอ่านหน้าจออ่านให้คนตาบอดฟังได้ล้วนมีพื้นฐานอยู่บนภาษาอังกฤษทั้งสิ้น ส่วนที่เป็นตัวกำหนดภาษาในการอ่านของโปรแกรมอ่านหน้าจอก็คือ Speech Synthesizer หรือส่วนที่ 3 ที่ได้บอกไปด้านบน ซึ่งในส่วนนี้ก็แล้วแต่ว่าประเทศไหน หรือบริศัทไหนจะพัฒนาขึ้นมา ซึ่งแน่นอนว่า ภาษาไทย ที่มีคนใช้กันอยู่แค่ประมาณ 1% ของประชากรโลก ก็คงไม่มีบริษัทไหนจะสนใจลงทุนพัฒนาให้เรา นี่ยังไม่นับว่าเพราะอัตราการละเมิดลลิขสิทธิ์ซอฟต์แวร์ในประเทศเราสูงติดอันดับโลก คือไม่ซื้อของๆ เขา แล้วเขาจะมาพัฒนาอะไรเป็นพิเศษให้เราล่ะ ?
ดังนั้นเพื่อที่จะทำให้การเข้าถึงข้อมูลของคนตาบอดในประเทศไทยทำได้สมบูรณ์มากยิ่งขึ้น เรา (คนไทยนี่แหละ) จึงต้องลงทุนพัฒนาเสียงสังเคราะห์ภาษาไทยกันขึ้นมากันเอง
โดยเสียงสังเคราะห์ภาษาไทยตัวแรกที่มีออกมาให้คนตาบอดได้ใช้งานกัน (และเป็นตัวที่ยังใช้กันอยู่จนถึงปัจจุบัน ก็มันไม่มีตัวเลือกนี่นา) ก็คือ PPA ตาทิพย์
เมื่อใช้โปรแกรมตาทิพย์ร่วมกับโปรแกรมอ่านหน้าจอ (ได้ทั้ง Jaws และ NVDA) คนตาบอดในไทยก็สามารถใช้คอมพิวเตอร์ได้ใกล้เคียงกับคนปกติมากยิ่งขึ้น โดยก่อนหน้านี้มีความพยายามในการสอนให้เสียงพูดของโปรแกรม Jaws for Windows อ่านภาษาไทยได้ โดยการใช้ฟีเจอร์ adde dictionary ให้มันออกเสียงตัวอักษรในภาษาไทยเป็นตัวๆ เดังนั้นพอเราอ่านไปเจอข้อความที่เป็นภาษาไทย โปรแกรมก็จะอ่านให้ฟังได้ แต่เป็นการอ่าน "เป็นตัวๆ" ไม่สามารถผสมคำและออกเสียงเป็นคำให้ได้ ซึ่งแน่นอนล่ะว่ามัน "ลำบากมากๆ"
นอกจากเสียงตาทิพย์ที่เป็นการพัฒนาจากนักพัฒนาอิสระแล้ว ก็ยังมีความพยายามจาก NECTEC ที่ได้พัฒนาโปรแกรม วาจา ให้เป็นเสียงสังเคราะห์ภาษาไทยอีกตัวหนึ่งขึ้นมาด้วย แต่ในการพัฒนาตั้งแต่อดีตจนถึงปัจจุบัน วาจาจาก NECTEC นี้แทบจะไม่เป็นประโยชน์ใดๆ ต่อคนตาบอดในไทยเลย เนื่องจากตัวโปรแกรมที่ทำออกมาจะรวมอยู่ในรูปแบบของ text to speech เสียมากกว่า ไม่ได้เขียนออกมาเป็น speech synthesizer เดี่ยวๆ และสามารถนำมาใช้งานร่วมกับโปรแกรมอ่านหน้าจอได้ คนตาบอดจึงมีเพียงเสียงตาทิพย์เป็นตัวเลือก(บังคับเลือก)ตัวเดียวเท่านั้น
แต่ล่าสุด! ทาง NECTEC ก็ได้พัฒนาวาจาที่จะสามารถนำมาใช้ร่วมกับโปรแกรมอ่านหน้าจอได้แล้ว แต่ยังเป็นตัวที่ยังอยู่ในขั้นทดสอบ โดยเพิ่งมีการเปิดให้คนตาบอดที่สนใจรับโปรแกรมไปทดลองใช้เมื่อวันที่ 27/7/2555 ที่ผ่านมานี้เอง ซึ่งกว่าจะออกมาเป็นตัวที่เปิดให้คนตาบอดทั่วไปได้ใช้งานกันจริงๆ ก็คงเป็นราวปลายปีนี้ ซึ่งเราก็ยังไม่รู้ว่าพอออกเป็นตัวที่เปิดให้คนทั่วไปใช้งานได้แล้ว ความสมบูรณ์ของโปรแกรมจะทำได้ดีแค่ไหน
และนอกจากนี้เรายังมีเสียงสังเคราะห์ภาษาไทยอีกตัวหนึ่ง ที่ผู้เขียนไม่แน่ใจที่มา (เข้าใจว่าเป็นการพัฒนาร่วมกันระหว่างจุฬาฯ กับ Nuance ซึ่งเป็นบริษัทที่พัฒนาด้านโปรแกรมอ่านออกเสียงขายโดยตรง) โปรแกรมตัวนี้มีชื่อว่า "นาริสา (Narisa)" ซึ่งหลายคนอาจเคยได้ยิน แต่ไม่รู้จักชื่อ แต่ถ้าบอกว่าเสียงนี้คือเสียงภาษาไทยที่ Apple ใช้ในอุปกรณ์ของเขา ไม่ว่าจะเป็น iOS OS X หลายคนอาจคุ้นขึ้นมาบ้าง
อ่านแค่คำอธิบายเป็นตัวหนังสืออาจจะยังไม่สมบูรณ์ ลองมาฟังกันดีกว่าว่าเสียงสังเคราะห์ภาษาไทยแต่ละตัวที่ได้บอกไป มันพูด(อ่าน)ออกมาเป็นอย่างไรกันบ้าง อิอิ
คนตาบอดเล่นเน็ตได้อย่างไร?
จากความเข้าใจพื้นฐานที่กล่าวมาทั้งหมดข้างต้นแล้ว หลายๆ คนก็อาจจะตอบคำถามข้อนี้กันได้แล้ว แต่ถ้าใครยังไม่เก็ต และเพื่อข้อมูลที่สมบูรณ์มากยิ่งขึ้น ผู้เขียนจะอธิบายในส่วนนี้เป็นพิเศษให้สักหน่อย เพราะอันที่จริงมันก็มีอะไรที่พิเศษกว่าที่ได้อธิบายไปแล้วอยู่อีกพอสมควร
การเล่นอินเทอร์เน็ตนั้น ก็คือการใช้งาน web browser ซึ่ง web browser มันก็คือโปรแกรมตัวหนึ่งเช่นกัน ดังนั้นการเข้าถึงโปรแกรมตัวนี้ก็ไม่ได้ต่างจากโปรแกรมตัวอื่นๆ นัก แต่สิ่งที่ทำให้การเข้าถึง web browser หรือจริงๆ ก็ต้อง ต่างออกไปก็เพราะว่า เนื้อหาที่แสดงผลในเบราว์เซอร์นี้มันมีความหลากหลายมากๆ นั่นเองบอกว่าเป็น output ของตัวโปรแกรมต่างหาก ไม่ใช่ว่าแค่โปรแกรมอ่านหน้าจอสามารถเข้าถึงตัวโปรแกรม web browser ได้ ทุกอย่างก็จบ แต่การออกแบบเว็บไซต์เองก็มีผลต่อการใช้งานของคนตาบอดอย่างมาก
เราจึงมี Web Content Accessibility Guidelines (WCAG) เป็นแนวทางในการออกแบบเว็บไซต์ เพื่อที่จะให้โปรแกรมอ่านหน้าจอสามารถเข้าใจน่าตา และสามารถแปลผลไปให้คนตาบอดสามารถใช้งานได้ โดยหลักๆ ก็คือตัวโปรแกรมอ่านหน้าจอจะจับกับ tag ที่ใช้เขียนหน้าเว็บ และผู้ใช้ที่ตาบอดก็จะสำรวจไปยังส่วนต่างๆ ของเว็บไซต์ผ่านคำสั่งลัด
โดยคำสั่งลัดในการใช้งานเว็บไซต์นี้จะต่างออกไปจากคำสั่งลัดที่เป็นการใช้งานโปรแกรมทั่วๆ ไปอยู่บ้าง คือเมื่อคนตาบอดใช้งานโปรแกรมอ่านหน้าจอ และเข้ามาในเบราว์เซอร์ คีบอร์ดทุกปุ่ม จะกลายมาเป็นคีลัดที่ช่วยในการสำรวจหน้าเว็บ เช่น
- กด e ไปยัง editbox หรือกล่องสำหรับพิมพ์ข้อความ
- กด h ไปยัง heading ต่างๆ
- กด t ไปยังตาราง
- กด p ไปยังย่อหน้า
เป็นต้น ถ้าใครที่พอเขียน HTML เป็นจะสังเกตว่ามันจะมีความสอดคล้องอยู่กับ code ของ tag ต่างๆ ที่เราใช้เขียนเว็บนี่เอง
พอเล่ามาถึงการใช้เว็บไซต์ ก็นึกขึ้นได้ว่าหลายคนคงจะสงสัยอยู่อีกเรื่อง นั่นก็คือ พวกข้อมูลที่เป็นตัวหนังสือยังพอเข้าใจว่าโปรแกรมอ่านหน้าจอคงจะประมวลผลให้อ่านเข้าใจได้ แล้วพวกข้อมูลที่เป็น "รูปภาพ" ล่ะ คำตอบคือ คนตาบอดก็ยังไม่สามารถเข้าใจรูปภาพได้อยู่ดีนั่นเอง
ถ้าเป็นรูปภาพที่อยู่บนเว็บไซต์ ถ้าผู้เขียนเนื้อหาปฏิบัติตามมาตรฐาน WCAG ที่ได้บอกไปข้างต้น คือมีการใส่คำอธิบาย (alt tag) ไว้ด้วย สิ่งที่คนตาบอดจะรับรู้ก็คือคำอธิบายเหล่านั้นแหละ แต่ถ้าไม่ได้ใส่ไว้ ก็อาจจะแค่รู้ว่าตรงนี้มีรูปนะ หรือการแสดงผลบางแบบก็อาจจะไม่รู้เลยด้วยซ้ำว่าหน้าเว็บตรงนี้มีรูปปรากฏอยู่
แล้วนอกจากคอมล่ะ?
เชื่อว่าคนตาบอดส่วนมากคงเคยชินกับการใช้งานคอมพิวเตอร์กันจนเบื่อแล้ว และคนทั่วไปก็อาจรับทราบกันแล้วว่าคนตาบอดใช้คอมพิวเตอร์ได้อย่างไร แต่พอมาถึงยุคที่ smart device เริ่มเข้ามาเป็นส่วนหนึ่งของชีวิตคนในยุคนี้ ก็จะมีคำถามเข้ามาอีกแหละว่า
คนตาบอดใช้ iPhone ได้อย่างไร?
SmartPhone และ SmartGadget
ในส่วนของการใช้งาน smart devices เหล่านี้ก็ไม่ได้ต่างไปจากการใช้คอมพิวเตอร์ธรรมดานัก เพียงแค่มันมีรูปแบบการ input รูปร่าง และขนาดที่ต่างไปเท่านั้นเอง ยังไงสิ่งสำคัญที่คนตาบอดจะเข้าถึงการใช้งานในอุปกรณ์เหล่านี้ได้ก็ยังเป็น "Screen Reader" อยู่เช่นเดิม
Screen Reader หรือโปรแกรมอ่านหน้าจอบนอุปกรณ์พกพานี้ เริ่มมาตั้งแต่สมัย PDA กันเลยทีเดียว จนต่อมาเมื่อ SmartPhone ระบบปฏิบัติการ Symbian และ Windows Mobile ได้รับความนิยม ก็เริ่มมีคู่แข่งในตลาดโปรแกรมอ่านหน้าจอนี้มากขึ้น แต่สิ่งที่น่าเสียดายก็คือบนทั้ง 2 ระบบปฏิบัติการนี้ ไม่มีโปรแกรมอ่านหน้าจอแบบฟรีๆ เลย โดยเหตุการณ์บนมือถือนี้ก็ไม่ต่างจากบนคอมพิวเตอร์นัก คือโปรแกรมอ่านหน้าจอแต่ละตัวก็มีราคาสูงมาก (แถวๆ $200>) และไม่นับค่าอัปเกรดที่แสนโหด คือถ้าไม่อัพเกรดคุณก็จะใช้กับ Mobile OS version ใหม่ๆ ไม่ได้
ซึ่งสำหรับคนตาบอดในไทยโทรศัพท์ Symbian ถือเป็นการเปิดโลกสมาร์ทโฟนเลยก็ว่าได้ เนื่องจากมันมีโปรแกรมอ่านหน้าจอ (ที่มีแครก) และก็มีเสียงสังเคราะห์ที่เป็นภาษาไทย (เป็นคนละตัวกับ 3 ตัวที่อธิบายไปด้านบน) แต่ด้วยข้อจำกัดในการเข้าถึงโปรแกรมต่างๆ จากอุปสรรคของ UI ตาม่ที่เคยอธิบายไปแล้ว ทำให้การใช้งานมือถือ Symbian นี้คนตาบอดก็จะหาโปรแกรมใช้ลำบากนิดหน่อย คือไม่ใช่ว่าเราจะใช้งานโปรแกรมได้ทุกตัวที่มีให้ใช้
คนตาบอดกับ iPhone
จนต่อมาเมื่อ Apple ได้เปิดตัว iPhone ในปี 2007 โลกของสมาร์ทโฟนก็ได้เปลี่ยนไป ทุกเจ้าเริ่มทำให้โทรศัพท์ของตัวเองเป็นระบบสัมผัสมากยิ่งขึ้น (จนเดี๋ยวนี้แทบจะไม่มีสมาร์ทโฟนที่เป็นปุ่มกดแบบธรรมดาเหมือนเมื่อก่อนแล้ว) ทีแรกคนตาบอดส่วนมากก็คงคิดว่า เอาแล้ว บรรไลแล้ว ทีนี้ตูจะใช้งานมือถือได้ไงฟระเนี่ย? ในเมื่อมันเป็นแบบสัมผัส และโปรแกรมอ่านหน้าจอเท่าที่มีในตอนนั้น ก็ยังไม่รองรับการสั่งงานแบบสัมผัสกันเลย
แต่... ก็เป็น Apple อีกครั้ง ที่ได้ "พริกโลก!" ของคนตาบอดไปอย่างใหญ่หลวง เมื่อ Apple ได้ใส่ VoiceOver ซึ่งก็คือโปรแกรมอ่านหน้าจอ ที่ติดมากับระบบปฏิบัติการ iOS นั่นเอง มันเลยทำให้คนตาบอดสามารถเข้าถึงฟีเจอร์หลักๆ รวมไปถึง apps อีกจำนวนมากได้ และยังเป็นแรงกระตุ้น+แรงบรรดาลใจ ให้ผู้พัฒนาระบบปฏิบัติการบนมือถือเจ้าอื่นๆ สนใจ accessibility feature มากขึ้น
ซึ่งก็แปลว่าสินค้าต่างๆ จาก Apple ที่ใช้ iOS คนตาบอดก็สามารถเข้าถึงได้ทั้งหมดไม่ว่าจะเป็น iPod iPad iPhone นอกจากนี้แม้แต่ระบบปฏิบัติการบนคอมพิวเตอร์อย่าง OS X Apple ก็ได้ใส่ VoiceOver ไว้ด้วยเช่นกัน นับเป็นการออกแบบเพื่อให้ทุกคนสามารถเข้าถึงได้ (universal design) ที่น่าขอบคุณเป็นอย่างมาก และที่น่าขอบคุณมากกว่านั้นก็คือ VoiceOver นั้นรองรับภาษาไทยมาด้วยตั้งแต่ต้น!!! ทำให้คนตาบอดในไทยก็สามารถใช้งานมันได้ไม่ต่างจากคนตาบอดที่อื่นในโลก
ตัวอย่างคลิปในการใช้งาน VoiceOver (ภาษาไทย) ต้องขอบคุณพี่กั้งไว้อีกตามเคย
นอกจาก Apple แล้ว คู่แข่งรายสำคัญอย่าง Android ก็ใช่ว่าจะยอมน้อยหน้า ทาง Google ก็มีการพัฒนา accessibility feature ใน Android อย่างต่อเนื่อง (เพียงแค่มันยังสู้ VoiceOver ใน iOS ไม่ได้แค่นั้นเอง) และข้อสำคัญคือ Android ไม่มีเสียงสังเคราะห์ภาษาไทยติดมาให้ด้วย! T_T จนทำให้คิดว่าคนตาบอดในไทยคงหมดหวังที่จะได้ใช้ Android กันเสียแล้ว
แต่เมื่อไม่นานมานี้ก็ได้มีแสงที่ปลายอุโมงเกิดขึ้น เมื่อ NECTEC ประกาศให้บุคคลทั่วไปได้ทดลองใช้ Vaja for Android หรืออ่านรายละเอียดได้จาก ข่าวนี้ ซึ่งก็ต้องรอดูกันต่อไปว่ามันจะใช้งานได้ดีแค่ไหน
หรือแม้แต่ RIM ผู้ผลิตโทรศัพท์ BlackBerry เมื่อไม่นานมานี้ ก็ได้ ปล่อย BlackBerry Screen Reader สำหรับผู้ใช้ที่มีความบกพร่องทางสายตา ซึ่งจะเห็นว่าถ้าลอง Apple ไม่ได้มี VoiceOver รวมมาให้ในระบบปฏิบัติการแบบฟรีๆ แล้ว คงยากที่รายอื่นๆ จะสนใจ accessibility feature อย่างทุกวันนี้
สรุป
โดยสรุปก็คือคนตาบอดสามารถใช้คอมพิวเตอร์ได้ด้วยเพียงมีซอฟต์แวร์พิเศษบางตัวเพิ่มขึ้นมาเท่านั้น ไม่ต้องการอุปกรณ์อะไรที่นอกเหนือจากคนทั่วไปแต่อย่างใด ที่อาจจะต้องใช้มากกว่าคนทั่วไปก็คงจะเป็นความจำ ต้องจำตำแหน่งและฟีเจอร์ของปุ่มต่างๆ ต้องจำคำสั่งลัดเพื่อใช้กับโปรแกรมอ่านหน้าจอ และการเรียนรู้ในสิ่งที่หลายอย่างก็ไม่สามารถจะหาจากคนปกติได้ (ก็เราใช้คอมไม่เหมือนคนอื่นๆ นิ) แต่ถ้าจะมองในภาพรวมแล้ว ด้วยเทคโนโลยีทุกวันนี้ ก็ทำให้คนตาบอดสามารถเข้าถึงสื่อต่างๆ ได้ใกล้เคียงกับคนปกติมากขึ้นๆ