Es soll ja großartige Fotografen geben, die ihrer eigentlich kostenpflichtigen eBooks in einzelne Seiten splitten und diese dann als Fotos in geringerer Auflösung und aufgeteilt in mehrere Blogposts zu je 8 Fotos (Seiten) kostenfrei unters Volk bringen.
Find ich prinzipiell super, nur ist es echt lästig
- diese knapp 400 Fotos per Mausklickorgie speichern zu müssen
- die URL zu den verpassten Blogposts im Browser anzupassen bzw. die Posts suchen zu müssen
Das muss doch einfacher gehen, oder?
Eine kurze Analyse der Bild-URLs ergab, dass sämtliche Fotos (Seiten) bereits auf dem Webserver in ein und dem selben Verzeichnis vorhanden waren. Der Dateiname unterschied sich lediglich in einer hochzählenden Zahl am Ende des Dateinamens.
Ich erinnerte mich an ein Tool, dass in einem solchen Fall die Download-Arbeit übernehmen kann, kam aber nicht auf dessen Namen und hatte auch wenig Bock, danach zu suchen.
Nein, es war nicht PicGrab!
Ich entschied mich, die Zeit, die ich sonst mit der Suche nach einem passenden Tool verbracht hätte, in die „Entwicklung“ eines kleinen Scripts zu investieren und startete Bash on Ubuntu on Windows, um folgenden kurzen Code zu erstellen (spart euch die Mühe und nehmt den Code von Nils weiter unten):
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 |
#!/bin/bash counter=1 while [ $counter -le 389 ] do if [ $counter -le 9 ] then zeros=00 increment=$zeros$counter else increment=$counter fi if [ $counter -ge 10 ] && [ $counter -le 99 ] then zeros=0 increment=$zeros$counter fi wget "http://eine-domain.com/wp-content/uploads/2016/06/bildname-1500px-free-"$increment".jpg" ((counter++)) done |
Der Code ist ein wenig unschön, hat aber auch nur 3 Minuten gebraucht. Das Hauptproblem waren die führenden Nullen (00x bzw. 0xx) bevor der Zähler 3-stellig wird.
Das geht sicher eleganter, funktioniert aber auch so wunderbar.
Update:
Leser Nils bekommt das ganze sogar als Einzeiler hin und ich hab soeben gelernt, dass man offenbar (auch) Bereiche von Werten angeben kann, die dann direkt verarbeitet werden:
1 |
wget "http://eine-domain.com/.../2016/06/bildname-1500px-free-"{001..389}".jpg" |
Danke Nils!
Anyways. Script gespeichert und gestartet. Kurz gewartet und dann lagen die Fotos auch schon auf der Platte.
Danach hat dann IrfanView mit seinem PDF-PlugIn übernommen und in 100er Schritten (mehr kann das PlugIn nicht auf einmal) die Fotos zu je einer PDF konvertiert.
Anschließend noch ein beherztes
1 |
pdftk pdf1.pdf pdf2.pdf pdf3.pdf pdf4.pdf cat output komplett.pdf |
auf der Bash und fertig war das eBook (dazu muss vorher das pdftk installiert werden).
Zwar liegt mir das eBook nun nicht in derselben hochauflösenden Qualität vor, wie man es im Shop des Anbieters kaufen kann, aber dafür war es umsonst und trotzdem legal.
Zeitaufwand: 10 Minuten
Wenn Dir dieser Beitrag geholfen hat und/oder Du mich finanziell unterstützen magst, kannst Du dies gerne per Paypal machen.
Alternativ kannst Du Dir meinen Amazon-Partnerlink in die Favoriten legen und Amazon bei Deinen zukünftigen Einkäufen darüber aufrufen:
Es entstehen Dir dadurch keine Mehrkosten, ich erhalte aber eine kleine Provision.
Über einen Kommentar freue ich mich natürlich auch :-)
Jan B-Punkt
Neueste Artikel von Jan B-Punkt (alle ansehen)
- Freie News für freie User – Schneller als die Paywall - 22. April 2024
- Adventskalender Gewinnspiele 2023 - 1. Dezember 2023
- Angespielt: Starship Troopers: Extermination - 19. Mai 2023
- Fazit zum ATOMSTACK A5 pro nach zwei Monaten Nutzung - 9. Mai 2023
- Zeitumstellung 2023 - 28. Februar 2023