Wget kullanarak HOTFILE linklerinin indirilmesi

Daha önce wget komutu ile rapidshare linkleirnin nasıl indirilebileceğine dair bir yazı yayınlamıştım. Bu kez aynı işlemin hotfile için nasıl yapılabileceğini anlatmak istiyorum. Tabi ki bu yöntemler zaman içerisinde değişebilir, ben de mümkün olduğunca takip edip burada yazdığım bilgileri yenilemeye çalışacağım. Ancak en azından şu anda bu yöntem işe yarıyor.

Öncelikle kullanıcı adı ve şifremizle cookie yi oluşturmamız gerekiyor.

 wget --save-cookies cookie --post-data "returnto=%2F&user=1234567&pass=ABCDEFG&=Login" -O - http://www.hotfile.com/login.php > /dev/null


Komut satırına bunu yazdığımızda (1234567 yerine kendi kullanıcı numaranızı ABCDEFG yerine de kendi şifrenizi yazmanız gerekiyor) bulunduğumuz klasörde cookie adında bir dosya oluşturuyoruz. Ben bu dosyayı  ~/.cookies adlı dizine hotfilecookie adı ile kaydettim.

Daha sonra aşağıdaki betiği downloaderHF isimli bir bash betiği dosyası içerisine kaydettim:


#!/bin/bash
for url in `cat $1`
do
wget --limit-rate=$2 --random-wait -c --load-cookies ~/.cookies/hotfilecookie $url
done

Bu dosyayı /usr/bin altına kaydedip aşağıdaki komut yardımı ile çalıştırılabilir hale getirdim.

sudo chmod +x /usr/bin/downloaderHF

İndirme işlemini yapmak istediğim bir klasör içerisinde bir text dosyası (url.txt olsun mesela) içerisine indirmek istediğim linkleri alt alta kaydettim. Sonrasında indirme işlemini gerçekleştirmek için aşağıdaki şekilde komutu çalıştırdım:

downloadHF url.txt 50k

Bu komut ile url.txt içerisindeki linkleri sıra ile 50k gibi sabit bir hızla bant genişliğinin tamamını sömürmeden indirmek mümkün. Daha güzeli, işlem yarıda kalsa bile sonradan yeniden başlattığınızda kaldığı yerden devam ediyor.


Comments

Popular posts from this blog

Latex'te Denklem İçerisine Ufak Boşluklar Koymak

LaTeX'te Sunum Hazırlamak

Octave'da Grafik Çizdirme