
AIGC
- 17 เม.ย. 68
-
0
-
AIGC by ETDA เสริมแกร่ง AI ด้วย ‘Data Governance’ โอกาส ความท้าทาย ที่องค์กรต้องรู้!
เทคโนโลยีปัญญาประดิษฐ์ หรือ AI แทบรันทุกวงการ จากอดีตที่เคยถูกตั้งคำถามถึงศักยภาพที่อาจเข้ามาแทนที่มนุษย์ จนเกิดความลังเลในการตัดสินใจเลือกที่จะใช้งาน แต่วันนี้ AI ได้กลายเป็นเพื่อนสนิทที่ช่วยเพิ่มประสิทธิภาพ พาเราก้าวข้ามข้อจำกัดทั้ง การทำธุรกิจ การทำงานรวมถึงการทำกิจกรรมในชีวิตประจำวัน และยากจะปฏิเสธว่า AI นั้นเป็นเทคโนโลยีที่มีความฉลาด ตอบโจทย์ในหลากหลายด้าน แต่เราก็ต้องไม่ลืมข้อเท็จจริงหนึ่งว่า AI เป็นเพียงปัญญาที่มนุษย์ ‘ประดิษฐ์’ ขึ้น และยังต้องอาศัยข้อมูล มหาศาลที่มนุษย์ป้อนให้เรียนรู้และพัฒนา จนกล่าวได้ว่า “ความสามารถของ AI ขึ้นอยู่กับข้อมูลที่ได้รับ” และแน่นอนยิ่งข้อมูลที่ได้รับมีคุณภาพ ถูกต้องมากเท่าไหร่ AI ก็ยิ่งฉลาดและแม่นยำยิ่งขึ้น ในทางกลับกัน หากข้อมูลมีข้อบกพร่อง ไม่ถูกต้อง เต็มไปด้วยอคติ ก็อาจส่งผลให้ AI ประมวลผลผิดพลาดและสร้างปัญหา จนนำมาสู่ความเสี่ยงได้

ดังนั้นการบริหารจัดการข้อมูลสำหรับ AI ให้ถูกต้อง เหมาะสมอย่างมีธรรมาภิบาล หรือที่เรียกว่า Data Governance for AI จึงเป็นสิ่งสำคัญที่องค์กรยุคใหม่จะต้องทำความรู้จักและเตรียมตัว ศูนย์ธรรมาภิบาลปัญญาประดิษฐ์ หรือ AIGC โดย ETDA จะพาทุกคนไปร่วมถอดบทเรียน เปิดมุมมองและทำความรู้จักกับเรื่องนี้ ไปกับเวที AI Governance Webinar 2025 ในหัวข้อ “Data Governance for AI : เสริมแกร่ง AI ด้วยพลัง Data อย่างมีธรรมาภิบาล”

Data Governance for AI : ประตูสู่การสร้างสรรค์ AI อย่างมีคุณภาพ
ก่อนหน้านี้เชื่อว่าหลายคนอาจคุ้นกับคำว่า ‘Data Governance’ หมายถึงการกำกับดูแล และจัดการข้อมูลอย่างเป็นระบบ ตั้งแต่กระบวนการรวบรวม จัดเก็บ การนำไปใช้จนถึงการรักษา ความปลอดภัย เพื่อให้ข้อมูลสามารถถูกนำมาใช้งานได้อย่างมีประสิทธิภาพ แต่วันที่เทคโนโลยี AI ได้รับการยอมรับอย่างกว้างขวางและต้องการ Data มหาศาลในการพัฒนาเพื่อให้ AI มีประสิทธภาพยิ่งขึ้น ความซับซ้อนของ Data Governance ก็เพิ่มขึ้นหลายเท่า เพราะข้อมูลไม่ได้เป็นเพียงทรัพยากร แต่เป็นสิ่งที่หล่อหลอม ช่วยพัฒนาเพิ่มศักยภาพการทำงานของ AI โดยตรง ดังนั้น ‘Data Governance for AI’ หรือการกำกับดูแลข้อมูลสำหรับ AI จึงกลายเป็นหัวใจสำคัญในการสร้างระบบ AI ที่ไม่เพียงฉลาด แต่ยังต้องถูกต้อง โปร่งใส เป็นธรรม และมีความรับผิดชอบต่อสังคม

เปิดความเสี่ยงที่อาจเกิดหากขาด Data Governance
ในวงเสวนา AI Governance Webinar 2025 ผู้เชี่ยวชาญได้สะท้อนให้เข้าใจง่ายขึ้นว่า หากเปรียบ AI เป็นเครื่องมือทำอาหาร ข้อมูลก็คือวัตถุดิบ ซึ่งอาหารจะอร่อยหรือไม่ก็ขึ้นอยู่กับวัตถุดิบที่ใช้ เช่นเดียวกัน หากข้อมูลมีคุณภาพ AI ก็จะสามารถสร้างผลงานที่แม่นยำและมีประสิทธิภาพ แต่หากข้อมูลไม่ดี ก็อาจนำไปสู่ผลลัพธ์ที่ผิดพลาด และก่อให้เกิดความเสี่ยงทั้งในด้านกฎหมาย จริยธรรม และความน่าเชื่อถือขององค์กร พร้อมยกตัวอย่างความเสี่ยงที่อาจจะเกิดขึ้นหากขาด Data Governance ดังนี้
- อคติใน AI (Bias): ข้อมูลที่เอนเอียงหรือไม่ครอบคลุม อาจทำให้ AI ตัดสินใจไม่เป็นธรรม เช่น ลำเอียงทางเพศ เชื้อชาติ หรือสถานะทางสังคม
- ละเมิดความเป็นส่วนตัว: ข้อมูลส่วนบุคคล เช่น หมายเลขบัตรประชาชนหรือข้อมูลสุขภาพ หากไม่มีการคุ้มครอง อาจรั่วไหลและกระทบสิทธิของผู้ใช้
- ละเมิดลิขสิทธิ์: ข้อมูลฝึก AI อาจอยู่ภายใต้ทรัพย์สินทางปัญญา หากใช้โดยไม่มีการอนุญาต อาจสร้างความเสียหายทางกฎหมาย
- ข้อมูลไร้คุณภาพ: ข้อมูลผิดหรือไม่ครบถ้วน ทำให้ AI ตัดสินใจผิดพลาด เช่น วินิจฉัยโรคผิด ส่งผลร้ายแรงต่อชีวิตผู้ป่วย
- ความปลอดภัยข้อมูล: หากระบบไม่แข็งแรง ข้อมูลอาจถูกแฮ็ก รั่วไหล หรือถูกใช้ในทางที่ผิด
แนวทางจัดการข้อมูลเพื่อใช้กับ AI อย่างมีประสิทธิภาพ พร้อมกันนี้ ผู้เชี่ยวชาญยังได้เสนอกรอบแนวทางการจัดการข้อมูลเพื่อให้กับ AI เพื่อให้เกิด Data Governance for AI สำหรับองค์กร โดยควรจะต้องมีหลักการเบื้องต้นที่ต้องคำนึง ดังนี้
- เริ่มจากมองเห็น “คุณค่าของข้อมูล” เพราะข้อมูลไม่ใช่แค่ใช้ในงานเอกสารหรือการทำงาน
ประจำวัน แต่คือ “สินทรัพย์” ที่ช่วยสร้างกลยุทธ์ วิเคราะห์เชิงลึก เปิดโอกาสใหม่ทางธุรกิจ และเป็นรากฐานสำคัญในการพัฒนา AI
- ชัดเจนเรื่อง “เป้าหมายการใช้ข้อมูล” โดยต้องรู้ว่าเก็บข้อมูลไปทำไม ใครใช้ ใช้อย่างไร เพื่อให้มั่นใจว่าใช้อย่างเหมาะสม ถูกกฎหมาย และไม่ก่อให้เกิดผลเสีย
- “คุมเข้มตั้งแต่ต้นทาง” รู้ที่มาของข้อมูลว่าได้มาอย่างไร ถูกกฎหมายหรือไม่ ใครเป็นเจ้าของ เพื่อป้องกันปัญหาละเมิดสิทธิ์ และสามารถตรวจสอบย้อนหลังได้
- “อธิบายข้อมูลด้วย Metadata” ที่สามารถระบุรายละเอียดของข้อมูล เช่น แหล่งที่มา ประเภท วิธีการจัดเก็บ วันเวลา เพื่อให้ใช้ข้อมูลอย่างถูกต้อง โดยเฉพาะถ้าใช้กับ AI ต้องระบุให้ลึก เช่น กลุ่มประชากร เพื่อลดปัญหาอคติ
- มี “ระบบจัดการข้อมูลที่เป็นขั้นตอน” ใช้กระบวนการอย่าง ETL หรือ Extract-Transform-Load และ Data Labeling ที่ช่วยทำความสะอาด จัดระเบียบข้อมูล และทำให้พร้อมใช้กับ AI อย่างมีประสิทธิภาพ
- “ให้ความสำคัญกับความปลอดภัยและความเป็นส่วนตัว” ใช้เทคโนโลยีเพื่อปกป้องข้อมูล เช่น การแยกข้อมูลส่วนบุคคลออก กำหนดมาตรฐานความปลอดภัย ลดความเสี่ยงจากการรั่วไหล
หรือถูกโจมตี
- คุม “คุณภาพของข้อมูล” อย่างเข้มงวด ข้อมูลที่ใช้พัฒนา AI ต้องถูกต้อง ครบถ้วน และตรวจสอบได้ ไม่เช่นนั้น AI จะวิเคราะห์ผิดพลาดและส่งผลกระทบตามมา
- สร้าง “วัฒนธรรมการใช้ข้อมูล” ส่งเสริมให้คนในองค์กรเข้าใจและใช้ข้อมูลได้อย่างมีประสิทธิภาพ รู้จักมองหาโอกาส และกล้าเสนอไอเดียเพื่อพัฒนา AI ให้ตอบโจทย์งานจริง
- ตั้ง “ทีมกำกับดูแลข้อมูล AI” มีคณะทำงานเฉพาะดูแลการใช้ข้อมูลใน AI กำหนดแนวทาง ประเมินความเสี่ยง และคอยติดตามตรวจสอบให้สอดคล้องกับเป้าหมายขององค์กร
- มี “มนุษย์ดูแล AI ตลอดทาง” (Human in the loop) เพราะ AI ไม่ควรทำงานลำพัง ต้องมีคนควบคุม ตรวจสอบ และรับผิดชอบในทุกขั้นตอน เพื่อความโปร่งใสและป้องกันข้อผิดพลาด
โดยแนวทางดังกล่าวอาจอยู่ในรูปแบบของแนวปฏิบัติ (Guidelines) หรือนโยบายภายใน (Internal Policies) และควรมีการกำหนดบทบาทหน้าที่ของผู้เกี่ยวข้องทุกฝ่ายให้ชัดเจน เพื่อให้องค์กรสามารถบริหารจัดการข้อมูลได้อย่างเป็นระบบ และลดความเสี่ยงจากความผิดพลาดของข้อมูลที่อาจจะเกิดขึ้นได้

Data Governance for AI ที่เหมาะสมสำหรับประเทศไทย ควรเป็นอย่างไร??
หากย้อนถามว่า วันนี้ถึงเวลาหรือยังที่ประเทศไทยควรมี Data Governance for AI และหากจำเป็นต้องมีกรอบดังกล่าวจะเป็นอย่างไร? ผู้เชี่ยวชาญต่างได้ให้ความคิดเห็นพร้อมเสนอแนะแนวทางที่ประเทศไทยควรนำไปใช้เป็นแนวทางในการกำหนดกรอบ Data Governance for AI ที่เหมาะสมสำหรับประเทศไทย ไว้อย่างน่าสนใจ คือต้องเป็นกรอบที่ยืดหยุ่น ปรับใช้ได้กับหลายอุตสาหกรรม เนื่องจากลักษณะการใช้ AI ในแต่ละภาคส่วนมีความแตกต่างกัน กรอบ Data Governance จึงต้องสามารถปรับใช้ได้อย่างหลากหลาย เพื่อให้องค์กรสามารถเลือกใช้ให้เหมาะกับบริบทของตนเอง พร้อม มีแนวทางหรือตัวอย่างการใช้งานจริง (Use Case) นอกจากการกำหนดหลักการในภาพรวมแล้ว การให้แนวทางปฏิบัติเฉพาะทางในแต่ละอุตสาหกรรม เช่น การเงิน การแพทย์ หรือภาคการผลิต จะช่วยให้องค์กรสามารถนำไปใช้ได้จริงและเข้าใจผลกระทบ หรือข้อควรระวังในการใช้ข้อมูลและ AI ได้ชัดเจนขึ้น และต้องเน้นการส่งเสริมมากกว่าควบคุม เพื่อเปิดทางให้เกิดนวัตกรรมมากกว่าการตั้งข้อจำกัดที่เป็นอุปสรรค พร้อมสนับสนุนการแบ่งปันข้อมูลอย่างปลอดภัย (Data Sharing) เพราะการพัฒนา AI ที่มีคุณภาพต้องอาศัยข้อมูลจำนวนมาก การออกแบบระบบที่ส่งเสริมให้เกิดการแบ่งปันข้อมูลอย่างปลอดภัย จึงเป็นหัวใจสำคัญ ทั้งยังต้องสอดคล้องกับมาตรฐานสากลและบริบทของไทย เพราะแม้กรอบ Data Governance จะอ้างอิงจากแนวทางของต่างประเทศ แต่ก็ต้องไม่ลืมว่าประเทศไทยมีข้อจำกัดในบางเรื่อง เช่น ความพร้อมด้านเทคโนโลยี ขนาดขององค์กร และความเข้าใจเรื่องข้อมูลที่ยังแตกต่างกัน จึงต้องมีความยืดหยุ่น สามารถปรับให้เข้ากับระดับความพร้อมของแต่ละภาคส่วนได้
สำหรับศูนย์ AIGC by ETDA ที่มุ่งส่งเสริมให้ทุกภาคส่วนเกิดการประยุกต์ใช้ AI อย่างมีจริยธรรม เหมาะสม ลดความเสี่ยงที่อาจจะเกิดขึ้น ก็ได้มีการศึกษาเพื่อเดินหน้าพัฒนากรอบแนวทาง Data Governance for AI สำหรับประเทศไทย ที่ได้มีการยึดแนวทางจากสากล เช่น กฎหมาย EU และประสานความร่วมมือกับหน่วยงานกำกับดูแลในประเทศ เพื่อให้ได้แนวทางที่เหมาะสมกับบริบทของไทย ทั้งในแง่เทคนิค กฎหมาย และการนำไปใช้งานจริง หากประเทศไทยสามารถวางระบบ Data Governance for AI ได้อย่างเหมาะสม จะช่วยส่งเสริมการใช้ AI อย่างมีประสิทธิภาพ ปลอดภัย และเป็นธรรม พร้อมขับเคลื่อนประเทศ
สู่อนาคตดิจิทัลได้อย่างมั่นคง ติดตามความเคลื่อนได้ที่เพจเฟซบุ๊ก ETDA Thailand