Thai GPT-2 Fine-Tuned
Model Details
Model Description
โมเดล GPT-2 ที่ปรับแต่งสำหรับงานถาม-ตอบภาษาไทย
ฝึกด้วยชุดข้อมูลคำถาม-คำตอบเกี่ยวกับโรคจำนวน 3000 คู่
Developed by: [chayanan lakad]
- Developed by: chayanan lakad
- Shared by: Estellez
- Model type: Causal Language Model (GPT-2 fine-tuned)
- Language(s): Thai (
th) - License: MIT
- Finetuned from model: gpt2 (Hugging Face base)
Model Sources
- Repository: https://huggingface.co/Estellez/thai-gpt2-finetuned
Uses
Direct Use
- งานถาม-ตอบ (Question Answering) เกี่ยวกับโรคและอาการ
- การทดลองด้าน NLP ภาษาไทย
Downstream Use
- สามารถนำไปปรับ fine-tune ต่อสำหรับงานอื่น ๆ เช่น chatbot, summarization, classification
Out-of-Scope Use
- ไม่เหมาะสำหรับการให้คำแนะนำทางการแพทย์จริง
- ไม่ควรใช้แทนการวินิจฉัยจากแพทย์
Bias, Risks, and Limitations
- โมเดลอาจให้ข้อมูลผิดพลาดหรือไม่ครบถ้วน
- ชุดข้อมูลโรคอาจมีความลำเอียงหรือไม่ครอบคลุมทุกโรค
- ไม่ควรใช้เพื่อการรักษาพยาบาลโดยตรง
Training Details
Training Data
- Dataset:
disease_3000(คู่คำถาม-คำตอบภาษาไทยเกี่ยวกับโรค 3000 คู่)
Training Procedure
- Epochs: {training_args.num_train_epochs}
- Perplexity (val): {val_perplexity:.2f}
Evaluation
- Metric: Perplexity
- Validation Result: {val_perplexity:.2f}
- Downloads last month
- 3
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support