Ich habe viele Informationen darüber erhalten, wie man Video vom Server auf ein Android-Gerät streamen kann, aber nicht viel darüber, ala Qik. Könnte mich jemand hier in die richtige Richtung weisen oder mir einen Rat geben, wie ich das angehen kann?
Ich habe ein Open-Source-Projekt gehostet, um Android-Handys mit IP-Kamera zu ermöglichen:
http://code.google.com/p/ipcamera-for-Android
Die Rohvideodaten werden von LocalSocket abgerufen und die MDAT-MOOV von MP4 wurde vor dem Streaming geprüft. Das Live-Video ist im FLV-Format gepackt und kann über einen Flash-Video-Player mit eingebautem Webserver abgespielt werden :)
Ich habe einige Zeit gebraucht, aber ich schaffe es endlich, eine App zu erstellen, die genau das macht. Schauen Sie sich die Google-Codeseite an, wenn Sie interessiert sind: http://code.google.com/p/spydroid-ipcamera/ Ich habe eine Menge Kommentare in meinen Code eingefügt (hauptsächlich CameraStreamer). Java), so sollte es ziemlich selbsterklärend sein .. Der schwierige Teil bestand eigentlich darin, den RFC 3984 zu verstehen und einen geeigneten Algorithmus für den Paketierungsprozess zu implementieren. (Dieser Algorithmus wandelt den vom MediaRecorder erzeugten mpeg4/h.264-Stream tatsächlich in einen Nice-RTP-Stream um, gemäß dem RFC).
Tschüss
Ich untersuche dies auch und obwohl ich keine gute Lösung für Sie habe, habe ich es geschafft, den Videocode von SIPDroid herauszufinden:
http://code.google.com/p/sipdroid/source/browse/trunk/src/org/sipdroid/sipua/ui/VideoCamera.Java
Ich habe ein Open-Source-SDK mit dem Namen Kickflip erstellt, um Streaming-Video von Android zu einem schmerzlosen Erlebnis zu machen.
Das SDK demonstriert die Verwendung der MediaCodec - API von Android 4.3, um die Pakete des Geräte-Hardware-Encoders direkt an FFmpeg für RTMP (mit librtmp) oder HLS Streaming von H.264 zu leiten/AAC. Außerdem werden Echtzeit-OpenGL-Effekte (Titel, Chroma-Key, Fades) und Hintergrundaufnahmen gezeigt.
Danke SO und vor allem fadden .
Hier ist ein vollständiger Artikel über das Streaming von Android-Kameravideos auf eine Webseite.
Android-Streaming von Live-Videokameras auf Webseiten
Ich kann das Live-Kameravideo vom Handy an meinen Server senden. Über diesen Link siehe den Link
Siehe den obigen Link. In diesem Link gibt es eine Beispielanwendung. Sie müssen lediglich Ihre Service-URL in RecordActivity.class einstellen.
Beispiel als: ffmpeg_link = "rtmp: // IhreServeripadresse: 1935/live/venkat";
Über diesen Link können wir Videos vom Typ H263 und H264 senden.
Dies ist kaum eine vollständige Antwort, aber webRTC ist vielleicht das, wonach Sie suchen. Hier sind einige Beispiele für webRTC in Aktion: http://www.webrtc.org/reference-apps
Wenn Sie Android-spezifischen Code wünschen, existiert er! http://www.webrtc.org/native-code/Android
Überprüfen Sie Yasea Bibliothek
Yasea ist ein Android-Streaming-Client. Es codiert YUV- und PCM-Daten von Kamera und Mikrofon auf H.264/AAC, kapselt in FLV ein und überträgt über RTMP.
Merkmal:
Mux (mein Unternehmen) verfügt über eine Open-Source-Android-App , die RTMP an einen Server überträgt, einschließlich der Einrichtung der Kamera und der Benutzerinteraktionen. Es ist für das Streaming an die Live-Streaming-API von Mux konzipiert, kann jedoch problemlos an jeden RTMP-Eingangspunkt übertragen werden.