Last updated: 7 ม.ค. 2567 | 162 จำนวนผู้เข้าชม |
ทรู คอร์ปอเรชั่น จัดสัมมนา “AI Gets Good” ตัวแทนจากรัฐ นักวิชาการและธุรกิจ ร่วมแลกเปลี่ยนความคิดเห็น หัวข้อ “ทำอย่างไรให้มั่นใจว่า AI จะสร้างผลกระทบเชิงบวกต่อสังคมไทย?”
การพัฒนาของปัญญาประดิษฐ์ หรือ AI อย่างไม่หยุดยั้งนำมาซึ่ง “ความท้าทายใหม่” ไม่ว่าประเด็นด้านความปลอดภัย ความเป็นส่วนตัว ทักษะและช่องว่างในขีดความสามารถทางการแข่งขัน
กำกับดูแล = อุปสรรคหรือส่งเสริม?
ดร.ชัยชนะ มิตรพันธ์ ผู้อำนวยการสำนักงานพัฒนาธุรกรรมทางอิเล็กทรอนิกส์ หรือ สพธอ. กล่าวว่า เป็นที่ประจักษ์แล้วว่าปัจจุบันทั่วโลกมีการใช้งาน AI อย่างแพร่หลายในรูปแบบบริการที่แตกต่างกัน ซึ่งมีทั้งคุณและโทษ ตัวอย่างเช่น โซเชียลมีเดียที่มี AI ทำหน้าที่เป็พื้นที่แห่งเสียงสะท้อน (Echo Chamber) เป็นปรากฏการณ์ที่บุคคลหนึ่งๆ ในพื้นที่หนึ่งๆ ได้รับข้อมูลข่าวสารและความคิดเห็นเป็นไปในทิศทางเดียวกัน จนเกิดเป็นการรับสารด้านเดียว
จากผลกระทบเชิงลบของ AI ในมิติทางเศรษฐกิจ สังคมและความมั่นคงของชาติ ทำให้ผู้มีส่วนได้เสียเริ่มคำนึงถึงแนวทางการกำกับดูแล แม้แต่ผู้พัฒนาเองก็เริ่มตระหนักถึงความเสี่ยงที่เกิดขึ้นจาก AI จนนำมาสู่แนวคิดในการหยุดพัฒนาสักระยะเวลาหนึ่งเพื่อศึกษาผลกระทบเชิงลบของ AI ต่อภาคส่วนต่างๆ
ทั้งนี้แนวคิดการกำกับดูแล AI นั้น เริ่มขึ้นในสหภาพยุโรปที่ตระหนักถึงความเสี่ยงจากการใช้ AI ในการละเมิดสิทธิในข้อมูลส่วนบุคคลและผลลัพธ์จากการประมวลผล โดย AI มีแนวโน้มที่จะส่งผลกระทบต่อการดำเนินชีวิตของประชาชน ทำให้ภาครัฐจำเป็นต้องมีมาตรการในการติดตามดูแลและควบคุมความเสี่ยง ขณะเดียวกัน อีกค่ายหนึ่งก็ส่งเสียงคัดค้านการกำกับดูแล โดยเล็งเห็นว่าการกำกับดูแลจะเป็นอุปสรรคมากกว่าส่งเสริมการพัฒนา AI
สำหรับประเทศไทยนั้นยังไม่มีความชัดเจนในแง่การกำกับดูแล AI ยอมรับว่าภาครัฐไทยยังขาดประสบการณ์การใช้งานและการกำกับดูแล AI ซึ่งถือเป็นเรื่องใหม่ในการกำกับดูแล หากเร่งกำกับดูแลเทคโนโลยีก่อนเวลาที่เหมาะสม อาจเป็นการทำแท้งเทคโนโลยีก่อนที่เทคโนโลยีจะเกิดด้วยซ้ำไป ดังนั้นจึงเลือกใช้กลไกติดตามแนวทางจากต่างประเทศเป็นหลัก
กลไกคลินิก AI
ปัจจุบัน สพธอ. มีศูนย์ธรรมภิบาลปัญญาประดิษฐ์ (AI Governance Clinic: AIGC) เป็นกลไกหลักในการพัฒนากรอบธรรมาภิบาลปัญญาประดิษฐ์ผ่านการวิเคราะห์ความเสี่ยงของ AI ตามแต่ละโครงการ เพื่อหาข้อบ่งชี้ผลกระทบทางบวกและทางลบของการพัฒนา AI ตามแต่จุดประสงค์ ซึ่งหากการพัฒนานั้นมีแนวโน้มที่มีความเสี่ยงสูง หน่วยงานกำกับดุแลก็จะทยอยออกมาตรการเพื่อดูแลและควบคุมความเสี่ยงเป็นรายกรณีไป
คลินิก AI ถือเป็นกลไกที่ช่วยส่งเสริมการประยุกต์ใช้ AI อย่างมีจริยธรรม บางอย่างกลไกการกำกับดูแลตนเอง (Self-Regulation) ก็เพียงพอแล้ว แต่หากมองว่ากลไกกำกับดูแลไม่ได้ผล อาจต้องร่างกฎหมายควบคุมดูแลอีกที ดังนั้นการกำกับดูแลการใช้ AI อาจต้องใช้ควบคู่กันไปผ่านทั้งกลไกกำกับดูแลตนเองและกฎหมาย เพื่อให้มีพื้นที่ในการพัฒนา สร้างความมั่นคั่งทางเศรษฐกิจต่อประเทศ ขณะเดียวกันต้องพิจารณาถึงผลกระทบทางสังคมไปพร้อมกัน
เมื่อเร็วๆ นี้ รัฐสภายุโรปได้ลงมติรับรองพระราชบัญญัติเพื่อการกำกับดูแลการใช้ปัญญาประดิษฐ์ (Artificial Intelligence Act) โดยมีเป้าหมายเพื่อปกป้องคุ้มครองสิทธิขั้นพื้นฐานและหลักการประชาธิปไตยในภาคพื้นยุโรป และยังคงสนับสนุนภาคธุรกิจต่อการพัฒนาปัญญาประดิษฐ์เพื่อให้ยุโรปพิชิตสถานะผู้นำด้าน AI บนเวทีโลก
ทั้งนี้การประกาศดังกล่าวถือเป็นความเคลื่อนไหวสำคัญต่อวงการ AI โลก โดยถือเป็นกฎหมายฉบับแรกของโลกที่ระบุถึงแนวทางการกำกับดูแลการใช้ AI หลักการและเหตุผล ข้อควรระวัง รวมถึงบทลงโทษ
มอง AI เป็นระบบ
ผศ.ดร.จิตร์ทัศน์ ฝักเจริญผล อาจารย์ประจำภาควิชาวิศวกรรมคอมพิวเตอร์ มหาวิทยาลัยเกษตรศาสตร์และผู้แปลหนังสือ AI ที่มีหัวใจ The Ethical Algorithm กล่าวว่า การกำหนดแนวทางการใช้ AI อย่างมีความจริยธรรมถือเป็นเรื่องที่ท้าทายอย่างมาก จำเป็นต้องกำหนดวิธีคิดและหลักเกณฑ์การพิจารณาอย่างชัดเจน
ตัวอย่างเช่น การกำกับดูแลการใช้อัลกอริธึ่มอย่างมีจริยธรรมจะต้องมีการกำหนดนิยามและองค์ประกอบอย่างชัดแจ้ง หากกำหนดให้อัลกอริธึ่มจะต้องปราศจากอคติและการเลือกปฏิบัติ ผู้ร่างจะต้องกำหนดนิยามของอคติให้ชัดเจน ซึ่งจากงานวิจัยที่ผ่านมาพบว่าอคติมีนิยามที่หลากหลายและดิ้นได้
ดังนั้นต้องบ่งชี้ปัญหาที่เกิดจากอคติ กำหนดเกณฑ์ชี้วัด ใช้กรอบกำกับดูแลเป็นแนวทางโดยไม่พิจารณาในรายละเอียดจนเกินไป ที่สำคัญ การลดความเสี่ยงด้านอคติจาก AI อาจต้องแก้ไขที่สารตั้งต้นนั่นคือ การป้อนข้อมูล
AI เป็นเรื่องของระบบ ดังนั้นไม่ว่าจะเป็นการทำความเข้าใจ การเรียนรู้ การใช้งาน รวมถึงการกำกับดูแล ผู้มีส่วนเกี่ยวข้องควรที่จะเข้าใจพื้นฐานความคิดอย่างลึกซึ้งและมอง AI อย่างเป็นระบบมากกว่าการมองปัญหาเป็นจุดๆ อย่างเอกเทศ
ความชอบธรรมแห่งการใช้ข้อมูล
มนตรี สถาพรกุล หัวหน้าสายงานคุ้มครองข้อมูลส่วนบุคคล บริษัท ทรู คอร์ปอเรชั่น จำกัด (มหาชน) กล่าวว่า AI เป็นเทคโนโลยีที่ฉลาดล้ำ จัดเป็นโครงสร้างพื้นฐานสมัยใหม่ที่มีบทบาทสำคัญในการขับเคลื่อนประเทศและองค์กร อย่างไรก็ตาม เมื่อพิจารณาถึงการใช้ประโยชน์จาก AI จะสามารถแบ่งออกได้เป็น 2 ส่วน
ส่วนแรกคือ การใช้เทคโนโลยี และอีกส่วนคือ การใช้ข้อมูล ซึ่งในประเด็นการใช้ข้อมูล ควรมีการกำกับดูแลเพื่อรักษาสิทธิของเจ้าของข้อมูลให้เป็นไปตามวัตถุประสงค์ที่กำหนด
ทั้งนี้ทำไม ทรู คอร์ป ต้องกำกับดูแลการใช้ AI ภายในองค์กร นั่นเพราะต้องการให้เกิดความชัดเจนในการใช้ข้อมูลตามวัตถุประสงค์ที่ชอบธรรม ซึ่งการใช้ AI อย่างมีจริยธรรมสะท้อนถึงการที่ ทรู คอร์ป เคารพใน ‘สิทธิ’ ของเจ้าของข้อมูล
นอกจากนี้ เมื่อวิเคราะห์ภูมิทัศน์ระบบนิเวศ AI จะสามารถแบ่งประเด็น “ความเสี่ยง” ที่เกี่ยวข้องกับ AI ได้ 3 ประเด็น ดังนี้ 1. นโยบายความเป็นส่วนตัวของข้อมูล 2. เงื่อนไขการใช้ข้อมูล เพื่อป้องกันผลลัพธ์ที่เป็นอคติ และ 3. ความเข้าใจในเทคโนโลยี AI ต่อสาธารณชน
ทั้งนี้ เพื่อการันตีว่าผู้บริโภคจะได้รับประโยชน์สูงสุดจากการใช้ AI ในการดำเนินงาน ทรู คอร์ป จึงได้ร่างธรรมนูญปัญญาประดิษฐ์ (True’s AI Ethical Charter) เพื่อเป็นแนวทางการใช้ AI อย่างมีจริยธรรม โดยกำหนดหลักการพื้นฐานสำคัญ 4 ประการ ได้แก่ 1. เจตนาดี 2. ความเป็นกลาง ปราศจากอคติ 3. ความเป็นส่วนตัวของข้อมูล และ 4. ความโปร่งใส
ข้อมูลเป็นฐานสำคัญที่ทำให้ AI ทำงานได้ แม้ว่าประเทศไทยจะยังไม่มีกฎหมายที่เกี่ยวข้องกับ AI เฉพาะ แต่กฎหมายไทยในปัจจุบันได้กำหนดแนวทางและกรอบการใช้งานข้อมูลอย่างชัดเจนอยู่แล้ว ไม่ว่าจะเป็น พ.ร.บ.คุ้มครองข้อมูลส่วนบุคคล พ.ศ.2562 รวมถึงประกาศ กสทช. เรื่องมาตรการคุ้มครองสิทธิของผู้ใช้บริการโทรคมนาคมเกี่ยวกับ ข้อมูลส่วนบุคคลสิทธิในความเป็นส่วนตัวและเสรีภาพในการสื่อสารถึงกันโดยทางโทรคมนาคม
การพัฒนา AI ก็เปรียบเสมือนการเลี้ยงเด็ก ในทางเดียวกันการกำหนดแนวทางการใช้ AI อย่างมีจริยธรรมก็เพื่อให้พวกเขาเจริญเติบโตเป็นสมาชิกที่ดีของสังคม
เรวัฒน์ ตันกิตติกร หัวหน้าสายงาน Channel Excellence บริษัท ทรู คอร์ปอเรชั่น จำกัด (มหาชน) กล่าวเสริมว่า AI จะมีจริยธรรมหรือไม่ ขึ้นอยู่กับข้อมูลที่ให้ AI วิเคราะห์ โดยมีจุดประสงค์ของการใช้งานเป็นตัวแปรสำคัญ
25 มิ.ย. 2567