Untuk menginstall Whisper (OpenAI Whisper / faster-whisper) di AWS EC2, saya sarankan memilih keluarga instance sebagai berikut:

Rekomendasi Singkat

Kebutuhan Pilihan Terbaik Alasan Utama Perkiraan Harga (On-Demand US East)
Budget / Hemat biaya g4dn.xlarge Paling murah, cukup untuk Whisper ~$0.53 / jam
Performa lebih baik + future-proof g5.xlarge atau g5.2xlarge Lebih kencang, VRAM lebih besar, lebih efisien ~$1.01 / jam (xlarge)

Perbandingan Detail g4dn.xlarge vs G5

Spesifikasi g4dn.xlarge g5.xlarge g5.2xlarge
GPU 1x NVIDIA T4 (16 GB VRAM) 1x NVIDIA A10G (24 GB VRAM) 1x NVIDIA A10G (24 GB VRAM)
vCPU 4 4 8
RAM 16 GB 16 GB 32 GB
Performa Inference Cukup baik ~2–3x lebih cepat daripada T4 Lebih baik lagi
Cocok untuk Whisper Ya (terutama small/medium/large dengan quantization) Sangat direkomendasikan Terbaik jika butuh throughput tinggi
Harga relatif Paling murah ~2x lebih mahal ~2.3x lebih mahal

Mana yang Harus Dipilih?

  1. Pilih g4dn.xlarge jika:

    • Kamu ingin biaya seminimal mungkin.
    • Transkripsi tidak terlalu sering (batch processing, bukan real-time).
    • Pakai model Whisper medium atau large dengan INT8 / FP16 quantization (faster-whisper atau CTranslate2).
    • Sudah terbukti banyak orang pakai untuk Whisper.
  2. Pilih G5 (g5.xlarge atau g5.2xlarge) jika:

    • Ingin kecepatan lebih tinggi (transkripsi lebih cepat, latency lebih rendah).
    • Sering proses audio panjang atau banyak file sekaligus.
    • Mau pakai model Whisper large-v3 tanpa quantization agresif.
    • Planning scale ke depan (G5 jauh lebih future-proof karena arsitektur Ampere lebih baru).

    g5.2xlarge biasanya sweet spot karena CPU dan RAM lebih besar, sehingga pre/post-processing tidak bottleneck.

Catatan Penting untuk Whisper

  • Whisper large butuh sekitar 8–10 GB VRAM di FP16.
    → g4dn.xlarge (16 GB) masih cukup, tapi g5 (24 GB) lebih lega.
  • Gunakan faster-whisper atau insanely-fast-whisper supaya jauh lebih cepat dan hemat VRAM.
  • Dengan quantization (INT8), bahkan model large bisa jalan nyaman di T4.

Saran Praktis Installasi

  1. Launch instance dengan Deep Learning AMI (Ubuntu) — sudah include CUDA, PyTorch, dll.
  2. Install Whisper:
    pip install faster-whisper  # atau openai-whisper
  3. Test dulu dengan model large-v3 atau large-v3-turbo.

Kesimpulan saya:

  • Kalau budget ketatg4dn.xlarge (paling populer untuk Whisper).
  • Kalau mau performa bagus dan worth the moneyg5.xlarge atau g5.2xlarge.

Kamu mau pakai untuk apa? (batch processing, real-time, berapa banyak audio per hari?) Biar saya bisa kasih rekomendasi yang lebih pas.