Mit dem picamera-Modul für Python kann ich einzelne Frames aus dem Video-Stream der Picam rausgreifen. Diese würde ich gerne auf meinem Display anzeigen. Das funktioniert auch, so lange der Stream die gleiche Auflösung hat wie das Display, in meinem Fall 320x240.
Ich würde den Stream aber gerne mit einer höheren Auflösung laufen lassen, und dann muss ich natürlich das einzelne Frame vor der Anzeige auf die Auflösung des Displays runterrechnen. Das Frame liegt allerdings im YUV-Format vor, und besteht aus Breite x Höhe x 3/2 Bytes, und ich habe keine Ahnung, wie sich diese Bytes auf meine Bildpixel aufteilen, also welche Bytes ich wie in ein neues YUV stecken muss, um ein Bild mit z.B. halber oder viertel Auflösung in Breite und Höhe zu bekommen.
Kann mir hier jemand weiterhelfen?