นิตยสาร สสวท. ฉบับที่ 244
ปีที่ 51 ฉบับที่ 244 กันยายน - ตุลาคม 2566 15 คุณลักษณะเด่น (Feature) ดังนั้น กล่าวได้ว่าจำ�นวนนิวรอนจะมีเท่าจำ�นวน คุณลักษณะเด่น (Feature) นั่นเอง 2. ชั้นซ่อน (Hidden Layer) เป็นชั้นที่อยู่ระหว่างกลาง ซึ่งจะ มีผลอย่างมากต่อประสิทธิภาพในการเรียนรู้ของแบบจำ�ลอง ในชั้นซ่อนนั้น จะมีกี่ชั้นก็ได้ และแต่ละชั้นจะมีจำ�นวนของนิวรอนจำ�นวนเท่าไหร่ก็ได้ เช่นกัน ซึ่งการเพิ่มชั้นและจำ�นวนนิวรอนจะส่งผลต่อการทำ�งานของโมเดล 3. ชั้นข้อมูลออก (Output Layer) ชั้นที่จะนำ�เอาข้อมูลจาก การคำ�นวณไปใช้ และจำ�นวนของโหนดในชั้นนี้ขึ้นอยู่กับรูปแบบของข้อมูล ออกที่จะเอาไปใช้ ตัวอย่างเช่น งานที่ต้องรู้และจำ�ของรถยนต์ 5 ยี่ห้อ เช่น Honda Toyota Isuzu Mitsubishi และ Mazda งานแบบนี้เราจะได้จำ�นวน นิวรอนในชั้นข้อมูลออก (Output Layer) เท่ากับ 5 ดังนั้น กล่าวได้ว่า จำ�นวนนิวรอนจะมีเท่าจำ�นวนชนิด (Class) ที่เราจะรู้จำ� 7. การกำ�หนดพารามิเตอร์ต่างๆ ให้กับโครงข่ายประสาทเทียม การกำ�หนดพารามิเตอร์ต่างๆ ให้กับโครงข่ายประสาทเทียมหรือ นิวรอนเน็ตเวิร์กที่สำ�คัญมีดังนี้ 7.1. จำ�นวนของระดับชั้นและจำ�นวนของนิวรอนในแต่ละระดับชั้น • จำ�นวนนิวรอนในชั้นข้อมูลเข้า (Input Layer) จะเท่าจำ�นวน คุณลักษณะเด่น (Feature) จำ�นวนนิวรอนของชั้นซ่อน (Hidden Layer) จะมีกี่ชั้นก็ได้ และแต่ละชั้นจะมีจำ�นวนนิวรอนเท่าไรก็ได้ และจำ�นวน นิวรอนของชั้นข้อมูลออก (Output Layer) จะเท่าจำ�นวนชนิด (Class) ที่เราจะรู้จำ� 7.2. ฟังก์ชันที่ใช้ในการเรียนรู้ในแต่ละระดับชั้น (Transfer Function) • ฟังก์ชันกระตุ้นหรือเรียกอีกชื่อว่า “ฟังก์ชันการส่งต่อ (Transfer Function)” เป็นฟังก์ชันในการคำ�นวณเพื่อทำ�นายค่าของข้อมูลออก รูปแบบ ที่นิยมมากที่สุดและมีประโยชน์คือ แบบที่ไม่เป็นฟังก์ชันสมการเส้นตรง (Non-linear function) เนื่องจากปัญหาในโลกความเป็นจริงมีลักษณะ เป็นแบบสมการเส้นตรงน้อยมาก ฟังก์ชันกระตุ้นทำ�หน้าที่ในการตัดสินใจว่า นิวรอนควรจะถูกกระตุ้นหรือไม่ โดยดูค่าผลรวมของข้อมูลเข้าและค่าน้ำ�หนัก ฟังก์ชันกระตุ้นจะถูกนำ�ไปใช้ทั้งโหนดซ่อน (Hidden Node) และโหนด ข้อมูลออก (Output Node) ซึ่งทั้งสองโหนดอาจจะใช้ฟังก์ชันกระตุ้น ที่เหมือนหรือต่างกันก็ได้ แต่ส่วนมากจะใช้ฟังก์ชันแบบไม่เป็นเชิงเส้น เนื่องจากในโหนดซ่อนจะมีการคำ�นวณแบบการรวมเชิงเส้น (Linear Combination) ถ้าฟังก์ชันกระตุ้นของโหนดซ่อนมีการคำ�นวณแบบ เชิงเส้นอีก จะเป็นการทำ�งานซ้ำ�ซ้อนกับการคำ�นวณแบบการรวมเชิงเส้น ในชั้นข้อมูลออก และจะทำ�ให้ผลลัพธ์เทียบเท่ากับสมการถดถอยลอจิสติก ฟังก์ชันกระตุ้นมีหลากหลายรูปแบบ ดังต่อไปนี้ 7.2.1. ฟังก์ชันกระตุ้นค่าแบ่ง (Threshold Activation Function) ฟังก์ชันนี้เรียกอีกชื่อว่าฟังก์ชันไบนารี่สเตป (Binary Step Function) ซึ่งจะพิจา รณาค่าข้อมูล เ ข้า ว่ ามากกว่ าหรือน้อยกว่ าค่าแบ่งที่ กำ�หนดไว้ (Threshold) หรือไม่ เพื่อส่งค่าต่อไปยังชั้นถัดไป 7.2.2. ฟังก์ชันกระตุ้นซิกมอยด์ (Sigmoid Activation Function) เป็นฟังก์ชันทางคณิตศาสตร์ที่มีลักษณะเป็นตัวเอส “S-curve” หรือ เรียกว่า “Sigmoid Curve” จะมีค่าระหว่าง 0 และ 1 ฟังก์ชันนี้จะใช้ เมื่อต้องการทำ�นายความน่าจะเป็น (Probability) ของข้อมูลออก 7.2.3. ฟังก์ชันไฮเปอร์โบลิคแทงก์เจนท์ (Hyperbolic Tangent Function: Tanh) มีการทำ�งานคล้ายฟังก์ชันกระตุ้นซิกมอยด์ แต่มี ประสิทธิภาพดีกว่า มีค่าระหว่าง [-1, 1] ข้อดีของฟังก์ชันไฮเปอร์โบลิค แทงก์เจนท์คือ สามารถแปลงค่าข้อมูลเข้าที่มีค่าเป็นลบมากๆ ให้เป็น ข้อมูลออกที่ติดลบได้ และข้อมูลที่ค่าเป็นศูนย์จะถูกแปลงเป็นข้อมูลออก ที่มีค่าใกล้ศูนย์ (Near-Zero Output) 7.2.4. ฟังก์ชันเรคติไฟด์ลินเนียยูนิต (Rectified Linear Units, ReLu) เป็นฟังก์ชันที่นิยมใช้งานมากที่สุดในโครงข่ายประสาทเทียมแบบบิด (Convolutional Neural Networks: CNN) และโครงข่ายประสาทเทียม อัจฉริยะ (ANN) ฟังก์ชันนี้มีค่าอยู่ระหว่าง [, ∞ ] หมายถึงถ้าข้อมูล เข้ามีค่ามากกว่าศูนย์ ข้อมูลออกเป็นค่าบวกและถ้าข้อมูลเข้ามีค่าศูนย์หรือ ติดลบ ข้อมูลออกจะมีค่าเป็นศูนย์ ภาพ 4 ตัวอย่างลักษณะของ Transfer Function ที่มา: https://www.researchgate.net/figure/Three-types-of-transfer-functions-The-neural-network-has-unique-multiprocessing_fig3_221906479 Jumping Logical Threshold Sigmoid
Made with FlippingBook
RkJQdWJsaXNoZXIy NzI2NjQ5