Fungsi handle_connection
bertujuan untuk menangani koneksi TCP yang masuk dari pengguna melalui method main
sebelumnya. Fungsi ini adalah menerima argumen mut TcpStream
yang merepresentasikan koneksi dengan pengguna. mut
berguna untuk memodifikasi streamnya (atau dalam kasus ini membaca data). Fungsi ini kemudian embuat BufReader
yang akan membuat TcpStream
menyediakan pembacaan data yang efisien dan terbuffer. BufReader
meningkatkan kinerja dengan mengurangi jumlah panggilan sistem yang diperlukan untuk membaca potongan kecil data sekaligus. BufReader
membaca setiap baris dan mengumpulkannya ke dalam sebuah vektor hingga menemukan baris kosong, yang kemungkinan menandakan akhir dari permintaan HTTP. Terakhir fungsi ini Mencetak seluruh vektor baris permintaan untuk debugging atau tujuan logging.
Pada perubahan dari fungsi handle_connection
dari sebelumnya, awalnya fungsi ini masih membaca HTTP request dengan BufReader
. Selanjutnya fungsi ini mendefinisikan status_line
dengan respon HTPP 200 OK menandakan respons yang sukses. Kemudian fungsi ini membaca konten file HTML sesuai dengan file path yang ada dalam contents
. Panjang contents
dihitung, yang diperlukan untuk header Content-Length dalam respons HTTP. String respons HTTP yang diformat dibuat, yang mencakup baris status, header Content-Length
, dan konten file HTML. Terakhir, respons ini dikirim kembali ke klien menggunakan stream.write_all
. Jadi pada perubahan fungsi handle_connection
ini, fungsi tidak hanya membaca request HTTP yang ada tetapi juga memberikan respons.
Pada commit 3 ini, terdapat perubahan pada kode yang telah dibuat. Sekarang terdapat response splitting dibandingkan sebelumnya. Jika pada awalnya kode akan menangani langsung setiap permintaan menuju suatu file html. Sekarang, terdapat 2 bagian yang dipecah. Jika permintaan sukses maka akan metujuk ke hello.html. Sementara jika permintaan gagal atau dengan status 404 NOT FOUND akan merujuk ke 404.html.
Kebutuhan refactoring untuk memisahkan penanganan kode ini dipelrukan untuk membuat kode lebih dinamis. Refactoring selanjutnya akan terus dibutuhkan juga untuk meningkatkan kejelasan dan mempermudah modifikasi pada kode. Dengan pemisahan respons seperti yang sudah kita buat, kode akan menjadi lebih mudah untuk dimengerti dan dipelihara.
Pada perubahan yang kita lakukan di commit 4 ini, terdapat kode yang membuat program menunggu sejenak. Jika pada awalnya ketika kita mengakses url program di http://127.0.0.1:7878 program akan langsung berjalan dan mengeluarkan isi html nya, sekarang terdapat penambahan baru. Pada url http://127.0.0.1:7878/sleep ketika program di akses akan ada waktu tunggu selama 10 detik sebelum akhisnya loading. Waktu tunggu ini disebabkan oleh kode GET /sleep
untuk konfigurasi menuju url /sleep dan kode thread::sleep(Duration::from_secs(10))
yang membuat program 'sleep' selama 10 detik sebelum memasuki program yang terlah di buat. Jika dibandingkan dengan url ttp://127.0.0.1:7878 saja, http://127.0.0.1:7878/sleep akan memakan lebih banyak waktu karena waktu sleep tersebut.
ThreadPool adalah kumpulan thread yang sudah dibuat sebelumnya dan diatur oleh suatu pool utama. ThreadPool bekerja dengan program yang kira buat mengajukan pekerjaan yang perlu diselesaikan ke pool utama tersebut. Kemudian, pool akan membagi pekerjaan tersebut secara efisien ke thread yang ada. ThreadPool memiliki beberapa keuntungan. Dengan menggunakan thread yang sudah dibuat sebelumnya, kita menghemat sumber daya yang digunakan oleh server/komputer kita. Proses membuat dan menghapus Thread cukup memakan sumber daya sehingga dengan menggunakan ThreadPool kita dapat lebih menghemat sumber daya. ThreadPool juga memungkinkan concurrency, yang memungkinkan adanya banyak instruksi secara bersamaan. Dengan concurrency, kita akan meningkatkan throughput dari server. ThreadPool juga akan mengurutkan request ke dalam suatu queue sehingga request yang masuk duluan akan diproses duluan dan thread yang sudah tidak bekerja dapat mengambil pekerjaan yang ada di queue. Penggunaan ThreadPool ini akan menghindari isu penggunaan resoursce secara bersamaan pada 1 task dan dapat mengolah banyak request secara efisien.