AI & On-Premise Computing

Di penghujung 2025 ini office workload sudah di titik paling rendah, jadi saya punya waktu untuk scrolling beberapa situs untuk membaca artikel teknologi. Salah satunya tulisan Joe McKendrick di ZDNet dengan basis data analisa Deloitte: munculnya AI menggeser kembali paradigma Cloud Computing for Everything.

Rangkumannya menyebut ada 4 issue untuk implementasi AI di cloud:

  • Biaya (lebih baik invest on-premise infra daripada bayar bulanan cloud)
  • Latency (AI yang pelan ga akan dipakai)
  • Resiliensi (ketergantungan dengan pihak ketiga -> ISP)
  • Data sovereignty (keamanan data)

Deloitte menyebutkan, solusi terbaik adalah pendekatan 3-tier/ hybrid:

  • Pakai Cloud untuk workload yang memerlukan elastisitas
  • Pakai On-premise untuk workload yang memerlukan konsistensi
  • Pakai Edge Computing untuk workload yang memerlukan kecepatan respon (contoh: implementasi AI di otomasi pabrik)

Sebagai penutup, McKendrick menambahkan testimoni dari FedEx: solusi terbaik untuk saat ini adalah menggunakan strategi hibrid: on-premise untuk aplikasi yang sensitif, dan cloud untuk fleksibilitas dan ide baru.

==

Saya pernah ditanya, implementasi AI dari sudut pandang IT infra itu benernya gimana sih? Karena saya juga belum tahu, akhirnya saya memutuskan untuk mencoba sendiri:

  • Sambungkan database on-premise ke AI provider di Cloud, semua proses dilakukan di Cloud. Yang ini saya lupa pakai apa, tapi super duper mudah.
  • Install software AI LLM nya on-premise (saya pakai LangChain SQL Tool di atas Docker), lalu sambungkan ke AI engine (saya pilih API gratisan dari OpenAI). Karena gratisan, sehari paling hanya bisa 2 – 3 pertanyaan sederhana.
  • Install software AI LLM on-premise, install AI engine on-premise (dalam hal ini perlu CPU/ GPU) -> belum coba, karena keterbatasan hardware.

2026 berharap bisa lebih siap ngecap soal AI ke customer, demi jualan on-premise IT infra.