RPi sinnvoll als kleinen aber dauerhaften Webserver?

  • Mich würde ein RPi als Webserver reizen. Ist der RPi mit einer größeren SD Karte als dauerhafter Weberver für eine Homepage und entsprechender Umleitung der Domain über DynDNS Dienste sinnvoll nutzbar?
    Reicht meine verfügbare 6 Mb Upstreamgeschwindkeit aus, wenn diese Homepage nur wenige Dutzend (meistens Text-) Zugriffe pro Tag verzeichnet?
    Prinzipiell könnte das auch mein NAS (QNAP TS-459+) aber ich scheue die ständig laufende Festplatten, sowie den Stromverbrauch.

    Als Speicher für die reinen Websitedaten reichen 1-2 GB völlig aus. Kann man diese auch mit auf der (geteilten) zusammen mit dem Betriebssystem auf der SD-Karte ablegen? Wenn man eine kleine 2,5" HD am aktiven Hub betreiben würde, wovon ist der Standbymodus der HD abhängig?

  • RPi sinnvoll als kleinen aber dauerhaften Webserver?? Schau mal ob du hier fündig wirst!

  • Also meiner läuft jetzt seit 21 Tagen mit Standardfrequenz, mit Kühlkörpern, aber ansonsten im geschlossenen Gehäuse mit 40-45 Grad im Dauerbetrieb, dauerhaftes drauf rumwerken mit SFTP/SSH und HTTP-GETs übern Browser. Apache, PHP5, MySQL läuft - alles einwandfrei.

    phpmyadmin braucht ein wenig bis es die Seite abgerufen hat, keine Ahnung was der da alles im Hintergrund macht mit der SQL Datenbank usw, aber alles trotzdem in akzeptabler Geschwindigkeit.

    Also prinzipiell sollte das funktionieren, bzw tut es ja bei mir auch.

    Edit:
    Eine Platte würde ich deswegen jetzt nicht dran hängen, der document root in /var/www liegt "Serienmässig" auf der SD-Karte, mein System hat jetzt mit aller Serversoftware usw 2.2GB...also wenn Du ne 8GB Karte rein machst, sollte das eigentlich reichen... Wobei ich auch ne 16er drin hab, weil der Preisunterschied von 8 zu 16GB relativ gering ist.

    Gruß
    Harry

    Nochmal Edit:

    Code
    Dateisystem                   Größe Benutzt Verf. Verw% Eingehängt auf
    rootfs                          15G    2,2G   12G   16% /
    /dev/root                       15G    2,2G   12G   16% /
    devtmpfs                       211M       0  211M    0% /dev
    tmpfs                           44M    908K   43M    3% /run
    tmpfs                          5,0M       0  5,0M    0% /run/lock
    tmpfs                           88M       0   88M    0% /run/shm
    /dev/mmcblk0p1                  56M     19M   38M   34% /boot

    So siehts aus, LAMP Server komplett installiert.

    Einmal editiert, zuletzt von PAINKILLER (21. Januar 2014 um 00:35)

  • Prima, so in der Art hatte ich es erhofft.
    Die Frage müsste man noch testen, ob 6 MBit Upload ausreichen, damit das Gegenüber aus dem Internet ausreichend schnell die Daten bekommt.

    Ich habe einen Kabel Deutschland Anschluss mit 100 Down und 6 MBit Up-Geschwindigkeit.
    Welche Geschwindigkeit hast du zur Verfügung?

  • Ich habe 16.000er DSL, Kabel is hier nicht, 17,7Mbit/s downstream, 1,2MBit/s upstream.

    Also sollten die 6MBit/s auf jeden reichen.

    Ich hab von unterwegs (Handy als Access Point, Laptop über W-LAN am Handy) über UMTS H+ über ssh und sftp gearbeitet... Funktioniert alles, auch die automatischer Vervollständigung in der Shell über die TAB Taste ohne große Verzögerung, arbeitet sich fast wie lokal hier im Netz

    Wenn Du da nicht gerade nen Haufen Riesen Bilder in die Seiten einbaust gehts auf jeden Fall...

    Einmal editiert, zuletzt von PAINKILLER (21. Januar 2014 um 00:42)

  • Also ich hab auch Kabeldeutschland mit der gleichen Leitung, es reicht super aus. Es kommt natürlich auf den Umfang der Seite an aber es läuft super. Wenn es wegen den Besuchern nicht reicht kann man ein Cluster aufbauen. Ein PI für die Datenbank den anderen fürs web

    Ich hab da noch ein Tipp, wenn du z.B wordpress nimmst kannst du mit "WP Fastest Cache" deine Seite Statisch Cachen lassen, was Datenbank Abfragen spart.
    Dazu noch "Amazon S3 and Cloudfront" als Plugin installieren kannst du deine Statischen Inhalte z.B Bilder, PDF & Co direkt und sogar Kostenlos dort Automatisch ablegen lassen. Sofern du das Kostenlose Angebot nicht überschreitest was aber bei kleinen Seiten kein Problem sein sollte. Was es bringt Besucher kommt auf die Seite Bilder & Co laden vom Amazon Space was sehr schnell ist.

    Dann gibt es noch von Google einige Plugins die sich mit den Google Webspace verbinden "z.B Wordpress CDN Plugin" damit werden alle möglichen bekannten (jquery & Co) Java Scripte direkt von Google Automatisch geladen. Wodurch man noch mehr lade Zeit Spart für seine Besucher.

    Einmal editiert, zuletzt von DoktorRPI (21. Januar 2014 um 01:15)


  • Eine Platte würde ich deswegen jetzt nicht dran hängen, der document root in /var/www liegt "Serienmässig" auf der SD-Karte, mein System hat jetzt mit aller Serversoftware usw 2.2GB...also wenn Du ne 8GB Karte rein machst, sollte das eigentlich reichen... Wobei ich auch ne 16er drin hab, weil der Preisunterschied von 8 zu 16GB relativ gering ist.

    Je nachdem wie hoch die Beanspruchung der Datenbank ist, würde ich empfehlen, die Datenbank auf eine USB-Stick oder doch auf eine Festplatte auszulagern. Die SD-Karte ist ein Verschleißteil. Der Betrieb kann eine ganze Zeit gut gehen, aber irgendwann ist dann plötzlich Schluss. Ich spreche da aus Erfahrung, allerdings werden in meiner Datenbank minütlich Daten gespeichert, dass dürfte bei einem CMS nicht so sein.

  • Hi,

    USB-Stick ist ja wohl von hinten durch die Brust ins eigene Knie :-/
    Der ist ja auch nix anderes als eine (verkappte) SD-Karte mit eingeschränkten Schreibzugriffen.
    Wenn schon, dann das ganze Sytem auf eine externe Platte und von der SD-Karte nur booten.
    Sonst erwischst Du die Lock-/Pipe-/Socket-/... Dateien mit aller Wahrscheinlichkeit nicht.


    cu,
    -ds-

  • Raspiprojekt hat schon indirekt recht... Wenn Du die Datenbank und die Log-Files von Apache, kurzum alles was viel geschrieben wird, auf nen USB Stick auslagerst, kackt Dir im Fall der Fälle "nur" die Website ab, und nicht gleich der ganze RasPi, von dem her wäre das schon eine Verbesserung.

    Bezüglich dessen wäre ein "rotating filesystem" interessant...bei den Siemens SPS z.B. stecken xMB große SD Karten drin, die effektiv nur z.B. 4MB Kapazität frei geben. Diese 4MB wandern dann auf der Karte durch, damit nicht immer der gleiche Bereich beschrieben wird, eben aus diesem Grund.

    Weiß jetzt aber nicht, ob sowas unter Linux auch verfügbar ist, hab mich da noch nicht informiert.


  • Bezüglich dessen wäre ein "rotating filesystem" interessant...
    ... damit nicht immer der gleiche Bereich beschrieben wird...

    Weiß jetzt aber nicht, ob sowas unter Linux auch verfügbar ist.


    Hallo miteinander,

    ich verwende mittlerweile seit ca. 7 Monaten bei meinen Raspis für SDcards ausschließlich "f2fs". Es ist von Samsung speziell für SDcards gerade zwecks gleichmässiger Belastung der Speicherzellen entwickelt worden, ist aber leider in den Standardkernels der gängigen Distris bisher nicht enthalten (auch bei Archlinux nicht). :mad_GREEN:

    "ext4" halte ich für SDcards alles andere als schonend, wie es ja painkiller schon angesprochen hat. Es ist halt insbesondere für die Steckerzieher und Stromausfallspezialisten auf jeden Fall die bessere Wahl. :lol:

    Gruß, mmi

  • Wie gesagt, eine (kleine) Webseite ansich hat nicht soviele Schreibzugriffe, denn die sind es, welche die SD-Karte verschleißen. USB-Stick hatte ich angesprochen, weil man den mal als reinen Datenspeicher fix wechseln oder sichern könnte, ohne dass das BS darunter leidet. Ist natürlich auch ein Flashspeicher und unterliegt dem selben Verschleiß. Das Optimieren und Verlagern der Speicherzugriffe wirkt auf alle Fälle. Wenn alles rund läuft, also man nicht mehr auf Fehlersuche gehen muss, würde ich so viel wie möglich von der Protokollierung (Logs) abschalten. Fileserver, Datenlogging und Co würde ich aber Grundsätzlich auf einer Festplatte oder einem Netzwerkspeicher (wenn die Daten nicht geheim sind) machen. Netzwerkspeicher im Internet haben den Vorteil, dass solange es den Provider gibt die Daten sehr gut abgesichert sind. Also man muss entscheiden, wie wichtig die Daten sind, oder ob es vielleicht doch einfacher ist, sich von der fertigen Karte mit dem Webserver drauf, regelmäßig ein Image zu ziehen und dann lieber eine neu SD-Karte aufsetzt, wenn es mal soweit ist.

  • Danke, das hört sich alles gut an. Ich hatte bislang noch nie einen Ausfall einer Speicherkarte. Ich habe für meine Kamera CF-Karten, die andauernd beschrieben werden. Das sollte vergleichbar sein. Zudem kaufe ich keine No-Name Karten, sondern bevorzuge Transcent und ähnliche Markenhersteller. Wenn dann mal alle paar Jahre eine Karte ausfällt, läuft das unter ferner liefen. Bislang habe ich eher Medien weggeschmissen, weil sie wegen unpraktikabel gewordenen Speichergrößen zu alt waren. Wer will heute noch Medien beispielsweise deutlich unter 1 GB nutzen?

  • Du beschreibst in deinem Beitrag genau dass, was viele übersehen. Ich denk mir jetzt einfach mal ein paar Zahlen aus, um zu zeigen was ich meine. Mit einer Kamera z.B. machst Du im Jahr vielleicht 5000 Bilder ?! Angenommen Du nimmst die Bilder runter und löscht diese, wären das 10000 Schreibzugriffe. Die Karte würde bei angenommen 1 Mio Schreibzugriffen also 100 Jahre halten! (Ich weiß das hinkt). Angenommen, Du hast einen Webserver und eine Datenbank am laufen und lässt alles auf Standard, dann wird jede Session, jeder Zugriff und jede Änderung der Webseite geloggt (Schreibzugriff). Je nachdem was Du mit der Datenbank machst, kommen da auch eine Menge Schreibzugriffe zusammen z.B. jede Minute die Temperatur loggen. Und dann noch die Zugriffe des Betriebssystems, da ist dann plötzlich ein gewusel auf der SD-Karte, welches mal durchaus 1000 (das ist noch wenig) Schreibzugriffe in der Stunde erzeugen kann. Von aussen sieht es so aus, als wenn Dein RasPi vor sich hin schlummert, macht er aber nicht. Ich übertreib jetzt natürlich etwas aber Du bist dann bei 24000 Schreibzugriffen am Tag also in 4 Tagen bei bummelig 100000 und bei 40 Tagen gibt die Karte den Geist auf.

  • Das Problem ist schon verstanden. Ich las mal, dass jede Speicherzelle ein paar tausend Schreibzugriffe verträgt und dann inaktiv wird. Ein Lesen soll aber immer möglich sein.
    Daher haben alle SSD Laufwerke ja auch ein Management, dass für zwei damit zusammenhängende Aufgaben sorgt. Erstens werden Schreibzugriffe immer wieder verteilt, so dass die Schreibzugriffe auf der ganzen Kapazität verteilt werden. Zweitens ein Defektmanagement, dass "tote" Zellen mit Zellen aus einem Reservebereich kaschieren kann. So bleibt über einen langen Zeitraum anscheinend die volle Kapazität erhalten, solange noch ein Reservebereich existiert.

    Was ich aber nicht weiß, ob normale (SD-)Karten ein vergleichbares Management haben oder ob man mit Spezialformatierungsprogrammen diese Aufgabe übernehmen kann.

Jetzt mitmachen!

Du hast noch kein Benutzerkonto auf unserer Seite? Registriere dich kostenlos und nimm an unserer Community teil!