raspberry pi als automatischen Bild-Downloader benutzen

Heute ist Stammtischzeit:
Jeden Donnerstag 20:30 Uhr hier im Chat.
Wer Lust hat, kann sich gerne beteiligen. ;)
  • Hallo,

    hat jemand eine Idee, wie man ein Bild einer Webseite, das sich alle x-Stunden ändert, mit dem Raspberry speichern kann ... qausi als Bild-Download-Manager zum archivieren der wechselnden Bilder...

    Bisher hab ich eine Windowslösung mit seqdownload von nirsoft. Allerdings ist der Windows-Server im Vergleich zum raspberry ein echter Energiefresser, so dass ich eine Lösung auf dem raspberry etablieren möchte. Ich habe schon ein paar Scripte gefunden mit wget, aber das zeitgesteuerte wiederholte automatische starten von wget macht Probleme.

    Gibt es ein Tool für raspberry, was das evt. auch kann? Oder hat jemand eine Ahnung, wie ein script o.ä. aussehen kann, dass alle xMinuten automatisch ein Bild einer Webseitenadresse speichert?

    Merci

  • raspberry pi als automatischen Bild-Downloader benutzen? Schau mal ob du hier fündig wirst!


  • ... Ich habe schon ein paar Scripte gefunden mit wget, aber das zeitgesteuerte wiederholte automatische starten von wget macht Probleme.

    Am Besten startest Du dein Script per Cronjob, dann wird dieses in einem regelmäßigem Zeitabstand automatisch ausgeführt.

  • Der Rumpf des Skripts als Endlosschleife könnte z.B. folgendermassen aussehen:

    Bash
    #!/bin/bash
    
    
    while true; do
       wget <parameter> <url>
       sleep 5m
    done


    Das würde alle 5 min. ein Bild holen. Natürlich geht's auch über cron, dann die while-Schleife einfach weglassen.

    "wget" kennt viele Parameter, damit kannst Du das Verhalten mit Sicherheit auf Deine Wünsche anpassen (siehe "man wget").

    Gruß, mmi.

  • WGET

    und sonst nichts

    wget ist genial!

    Denk nicht mal an was anderes!

    Welche Probleme denn?

    wget macht keine Probleme (jedenfalls bei mir, bis jetzt)

    Bye


  • Der Rumpf des Skripts als Endlosschleife könnte z.B. folgendermassen aussehen:

    Bash
    #!/bin/bash
    
    
    while true; do
       wget <parameter> <url>
       sleep 5m
    done


    Das würde alle 5 min. ein Bild holen. Natürlich geht's auch über cron, dann die while-Schleife einfach weglassen.

    "wget" kennt viele Parameter, damit kannst Du das Verhalten mit Sicherheit auf Deine Wünsche anpassen (siehe "man wget").

    Gruß, mmi.

    wie müsste man das machen das der Inhalt einer Webseite Index.html (mit user und PW geschützt) alle 2 Minuten in des PIs index.html (lighthttp ? wheezy) kopiert wird ?

    lasst die PIs & ESPs am Leben !
    Energiesparen:
    Das Gehirn kann in Standby gehen. Abschalten spart aber noch mehr Energie, was immer mehr nutzen. Dieter Nuhr
    (ich kann leider nicht schneller fahren, vor mir fährt ein GTi)


  • Da die website nicht bekannt ist, wäre hier ein guter Anlaufpunkt, für wget mit login.

    mit dem -O switch kannst du auch die Output Datei definieren. In deinem Fall /var/www/index.html

    danke, muss ich mich einlesen war schon auf Linux Wiki habe aber zu wenig gefunden :blush:

    lasst die PIs & ESPs am Leben !
    Energiesparen:
    Das Gehirn kann in Standby gehen. Abschalten spart aber noch mehr Energie, was immer mehr nutzen. Dieter Nuhr
    (ich kann leider nicht schneller fahren, vor mir fährt ein GTi)

Jetzt mitmachen!

Du hast noch kein Benutzerkonto auf unserer Seite? Registriere dich kostenlos und nimm an unserer Community teil!