Thai GPT-2 Fine-Tuned

Model Details

Model Description

โมเดล GPT-2 ที่ปรับแต่งสำหรับงานถาม-ตอบภาษาไทย
ฝึกด้วยชุดข้อมูลคำถาม-คำตอบเกี่ยวกับโรคจำนวน 3000 คู่

Developed by: [chayanan lakad]

  • Developed by: chayanan lakad
  • Shared by: Estellez
  • Model type: Causal Language Model (GPT-2 fine-tuned)
  • Language(s): Thai (th)
  • License: MIT
  • Finetuned from model: gpt2 (Hugging Face base)

Model Sources

Uses

Direct Use

  • งานถาม-ตอบ (Question Answering) เกี่ยวกับโรคและอาการ
  • การทดลองด้าน NLP ภาษาไทย

Downstream Use

  • สามารถนำไปปรับ fine-tune ต่อสำหรับงานอื่น ๆ เช่น chatbot, summarization, classification

Out-of-Scope Use

  • ไม่เหมาะสำหรับการให้คำแนะนำทางการแพทย์จริง
  • ไม่ควรใช้แทนการวินิจฉัยจากแพทย์

Bias, Risks, and Limitations

  • โมเดลอาจให้ข้อมูลผิดพลาดหรือไม่ครบถ้วน
  • ชุดข้อมูลโรคอาจมีความลำเอียงหรือไม่ครอบคลุมทุกโรค
  • ไม่ควรใช้เพื่อการรักษาพยาบาลโดยตรง

Training Details

Training Data

  • Dataset: disease_3000 (คู่คำถาม-คำตอบภาษาไทยเกี่ยวกับโรค 3000 คู่)

Training Procedure

  • Epochs: {training_args.num_train_epochs}
  • Perplexity (val): {val_perplexity:.2f}

Evaluation

  • Metric: Perplexity
  • Validation Result: {val_perplexity:.2f}
Downloads last month
3
Safetensors
Model size
0.1B params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support