Nah, dalam keadaan "biasa" saja bisa demikian keadaannya, apalagi ketika sedang proses scraping data; Mungkin lebih kurang sama seperti ketika proses backup data, kalau datanya masih sedikit bisa lebih cepat prosesnya, namun tentu tidak demikian jika datanya sudah lumayan banyak sehingga membutuhkan waktu lebih lama ketika memprosesnya dan ini bisa menambah beban server.
Btw, saya pernah membaca postingannya om roycilik perihal proses scrap data yang digunakan DdmrDdmr;
Saya pernah PM menanyakan langasung kepada DdmrDdmr:

Backup itu cepet gan karena cuma export database dan copas file, sedangkan kalau scraping itu harus mengakses page satu per satu.
Kalau dilihat dari hitungan DdmrDdmr 12 jam dapat 40k records (anggap aja dari record = webpage), ya berarti dalam 1 detik bot mengakses ~1 laman web... tentu makan sumber daya yang lebih parah dari contoh ane sebelumnya. Apakah bakal bikin server lambat? Ya tergantung infrastruktur yang disewa/dipunya.
Makanya pola pikir solusi pakai bot scraping begini baru ane dapati di forum kripto, sebelumnya yang biasa ane tau adalah webmaster membuat atau menginstall sesuatu, bisa itu plugin, atau scheduled script yang tentunya tidak terlalu membebani. Mungkin memang semangat desentralisasi sehingga solusi bisa dibuat oleh pihak ke-3 yang ga punya akses ke database dsb.