WebRTC هي جبهة جديدة في الحرب الطويلة من أجل شبكة ويب مفتوحة وغير مقيّدة.
بريندان إيتش، مخترع JavaScript
التواصل في الوقت الفعلي بدون إضافات
تخيل عالمًا يمكن فيه لهاتفك وتلفزيونك وجهاز الكمبيوتر التواصل على منصة مشتركة. تخيل أنّه من السهل إضافة محادثة فيديو ومشاركة البيانات من جهاز إلى جهاز إلى تطبيق الويب الخاص بك. هذه هي رؤية WebRTC.
هل تريد تجربتها؟ تتوفّر WebRTC على أجهزة الكمبيوتر المكتبي والأجهزة الجوّالة في Google Chrome وSafari وFirefox وOpera. يمكنك البدء باستخدام تطبيق محادثة الفيديو البسيط على appr.tc:
- افتح appr.tc في المتصفّح.
- انقر على انضمام للانضمام إلى غرفة محادثة والسماح للتطبيق باستخدام كاميرا الويب.
- افتح عنوان URL المعروض في نهاية الصفحة في علامة تبويب جديدة أو على جهاز كمبيوتر مختلف.
البدء بسرعة
هل ليس لديك الوقت الكافي لقراءة هذه المقالة أو تريد الحصول على الرمز فقط؟
- للحصول على نظرة عامة على WebRTC، شاهِد فيديو Google I/O التالي أو اطّلِع على هذه الشرائح:
- إذا لم يسبق لك استخدام واجهة برمجة التطبيقات
getUserMedia
، اطّلِع على مقالتَي تسجيل الصوت والفيديو في HTML5 وsimpl.info getUserMedia. - للتعرّف على واجهة برمجة التطبيقات
RTCPeerConnection
، اطّلِع على المثال التالي و"simpl.info RTCPeerConnection". - للتعرّف على كيفية استخدام WebRTC للخوادم لإصدار الإشارات وعبور جدار الحماية وNAT، اطّلِع على الرمز البرمجي وسجلّات وحدة التحكّم من appr.tc.
- هل لا يمكنك الانتظار وتريد تجربة WebRTC الآن؟ جرِّب بعض العروض التوضيحية التي تزيد عن 20 عرضًا التي تستخدم واجهات برمجة التطبيقات JavaScript لـ WebRTC.
- هل تواجه مشكلة في جهازك وWebRTC؟ انتقِل إلى أداة حلّ مشاكل WebRTC.
يمكنك بدلاً من ذلك الانتقال مباشرةً إلى الدرس التطبيقي حول WebRTC، وهو دليل مفصّل يشرح كيفية إنشاء تطبيق كامل لمحادثات الفيديو، بما في ذلك خادم إشارات بسيط.
لمحة قصيرة جدًا عن WebRTC
أحد التحديات الرئيسية الأخيرة على الويب هو إتاحة التواصل بين الأشخاص من خلال الصوت والفيديو: التواصل في الوقت الفعلي أو RTC اختصارًا. يجب أن تكون تقنية RTC في تطبيق الويب طبيعية تمامًا مثل إدخال نص في مربّع إدخال نص. بدونها، ستكون قدرتك على الابتكار وتطوير طرق جديدة للتفاعل مع الجمهور محدودة.
في السابق، كانت تقنية RTC معقدة ومخصّصة للمؤسسات، وتتطلّب ترخيص تقنيات الصوت والفيديو الباهظة أو تطويرها داخل المؤسسة. كان دمج تكنولوجيا RTC مع المحتوى والبيانات والخدمات الحالية أمرًا صعبًا ويستغرق وقتًا طويلاً، لا سيما على الويب.
أصبحت مكالمات الفيديو في Gmail شائعة في عام 2008، وفي عام 2011، طرحت Google تطبيق Hangouts الذي يستخدم Talk (مثل Gmail). اشترت Google شركة GIPS، وهي شركة طوّرت العديد من المكوّنات المطلوبة لاستخدام RTC، مثل برامج الترميز وأساليب إلغاء الصدى. ولقد أتاحت Google استخدام التقنيات التي طوّرها فريق GIPS، كما تعاونت مع الهيئات المعنية بالمعايير في مجموعة مهندسي شبكة الإنترنت (IETF) واتحاد شبكة الويب العالمية (W3C) لضمان توافق الصناعة. في أيار (مايو) 2011، أنشأت شركة Ericsson أول عملية تنفيذ لخدمة WebRTC.
نفَّذ WebRTC معايير مفتوحة لاتصالات الفيديو والصوت والبيانات في الوقت الفعلي بدون استخدام مكوّنات إضافية. كانت الحاجة حقيقية:
- كانت العديد من خدمات الويب تستخدم بروتوكول RTC، ولكنّها كانت تتطلّب عمليات تنزيل أو تطبيقات أصلية أو مكونات إضافية. وشمل ذلك Skype وFacebook وHangouts.
- إنّ تنزيل المكوّنات الإضافية وتثبيتها وتحديثها عملية معقدة ومليئة بالأخطاء ومزعجة.
- من الصعب نشر المكونات الإضافية وتصحيح أخطاءها وتحديد مشاكلها وحلّها واختبارها وصيانتها، وقد تتطلّب ترخيصها والدمج مع تكنولوجيا معقدة ومكلفة. غالبًا ما يكون من الصعب إقناع المستخدمين بتثبيت المكوّنات الإضافية في المقام الأول.
تتمثل المبادئ الأساسية لمشروع WebRTC في أن تكون واجهات برمجة التطبيقات مفتوحة المصدر ومجانية ومتوافقة مع المعايير ومضمّنة في متصفّحات الويب وأكثر فعالية من التقنيات الحالية.
ما هو وضعنا الآن؟
يتم استخدام WebRTC في تطبيقات مختلفة، مثل Google Meet. تم أيضًا دمج WebRTC مع WebKitGTK+ وتطبيقات Qt الأصلية.
تُنفِّذ WebRTC واجهات برمجة التطبيقات الثلاث التالية:
- MediaStream
(المعروفة أيضًا باسم getUserMedia
)
- RTCPeerConnection
- RTCDataChannel
يتمّ تحديد واجهات برمجة التطبيقات في المواصفاتتَين التاليتَين:
تتوفّر واجهات برمجة التطبيقات الثلاث على الأجهزة الجوّالة وأجهزة الكمبيوتر المكتبي باستخدام متصفّحات Chrome وSafari وFirefox وEdge وOpera.
getUserMedia
: للاطّلاع على العروض التوضيحية والرموز البرمجية، يمكنك الاطّلاع على عيّنات WebRTC أو تجربة الأمثلة الرائعة التي يقدّمها "كريس ويلسون" والتي تستخدِم getUserMedia
كمدخل لصوت الويب.
RTCPeerConnection
: للحصول على عرض توضيحي بسيط وتطبيق محادثة فيديو يعمل بشكل كامل، يمكنك الاطّلاع على عيّنات WebRTC Peer connection وappr.tc، على التوالي. يستخدم هذا التطبيق adapter.js، وهو واجهة JavaScript تُديرها Google بمساعدة منتدى WebRTC، لتجاهل الاختلافات بين المتصفّحات وتغييرات المواصفات.
RTCDataChannel
: للاطّلاع على هذا الإجراء، يمكنك الاطّلاع على عيّنات WebRTC للاطّلاع على أحد العروض التوضيحية للقناة التي تنقل البيانات.
يوضّح الدرس التطبيقي حول WebRTC كيفية استخدام واجهات برمجة التطبيقات الثلاث لإنشاء تطبيق بسيط لمحادثات الفيديو ومشاركة الملفات.
أول استخدام لك لخدمة WebRTC
يجب أن تُجري تطبيقات WebRTC عدة إجراءات:
- بث الصوت أو الفيديو أو البيانات الأخرى
- الحصول على معلومات الشبكة، مثل عناوين IP والمنافذ، وتبادلها مع عملاء WebRTC الآخرين (المعروفين باسم المشاركين) لتفعيل الاتصال، حتى من خلال شبكات NAT وجُدر الحماية
- تنسيق اتصالات الإشارات للإبلاغ عن الأخطاء وبدء الجلسات أو إغلاقها
- تبادل المعلومات حول الوسائط وإمكانيات العميل، مثل درجة الدقة وبرامج الترميز
- بث الصوت أو الفيديو أو البيانات
للحصول على بيانات البث ومشاركتها، تُنفِّذ WebRTC واجهات برمجة التطبيقات التالية:
- يحصل تطبيق
MediaStream
على إذن الوصول إلى مصادر البيانات، مثل الكاميرا والميكروفون الخاصَين بالمستخدم. - يتيح
RTCPeerConnection
إجراء مكالمات صوتية أو عبر الفيديو مع مرافق لإدارة التشفير ومعدل نقل البيانات. - يتيح
RTCDataChannel
التواصل بين الأجهزة المتكافئة بشأن البيانات العامة.
(سيتم لاحقًا مناقشة تفصيلية لجوانب الشبكة وإعداد الإشارات في WebRTC).
واجهة برمجة التطبيقات MediaStream
(المعروفة أيضًا باسم واجهة برمجة التطبيقات getUserMedia
)
تمثّل واجهة برمجة التطبيقات MediaStream
أحداث البث المتزامنة للوسائط. على سبيل المثال، يتضمّن البث المباشر الذي يتم تسجيله من الكاميرا والميكروفون مقطعَي فيديو وصوت متزامنين. (لا تخلط بين MediaStreamTrack
وعنصر <track>
، لأنّهما مختلفان تمامًا).
إنّ أسهل طريقة لفهم واجهة برمجة التطبيقات MediaStream
هي الاطّلاع عليها في الواقع:
- في المتصفّح، انتقِل إلى عيّنات WebRTC
getUserMedia
. - افتح وحدة التحكّم.
- تحقَّق من المتغيّر
stream
الذي يقع في النطاق العام.
يحتوي كل MediaStream
على إدخال، قد يكون MediaStream
تم إنشاؤه بواسطة getUserMedia()
، ومخرجات، قد يتم تمريرها إلى عنصر فيديو أو RTCPeerConnection
.
تأخذ طريقة getUserMedia()
مَعلمة عنصر MediaStreamConstraints
وتُعرِض Promise
التي يتمّ حلّها إلى عنصر MediaStream
.
يحتوي كلّ MediaStream
على label
، مثل 'Xk7EuLhsuHKbnjLWkW4yYGNJJ8ONsgwHBvLQ'
. تُعرِض الطريقتان getAudioTracks()
وgetVideoTracks()
صفيفًا من MediaStreamTrack
.
في مثال getUserMedia
، يعرض stream.getAudioTracks()
صفيفًا فارغًا (لأنّه لا يتوفّر صوت)، وافترضنا أنّه تم توصيل كاميرا ويب صالحة، يعرض stream.getVideoTracks()
صفيفًا يتضمّن MediaStreamTrack
واحدًا يمثّل البث من كاميرا الويب. لكل MediaStreamTrack
نوع ('video'
أو 'audio'
) وlabel
(مثل 'FaceTime HD Camera (Built-in)'
)، ويمثّل قناة واحدة أو أكثر من المحتوى الصوتي أو الفيديو. في هذه الحالة، يتوفّر مقطع فيديو واحد فقط بدون صوت، ولكن من السهل تخيل حالات استخدام تتضمّن المزيد من المحتوى، مثل تطبيق محادثات يتلقّى أحداثًا مباشرة من الكاميرا الأمامية والخلفية والميكروفون وتطبيق يشارك شاشته.
يمكن إرفاق MediaStream
بعنصر فيديو من خلال ضبط السمة srcObject
. في السابق، كان يتم إجراء ذلك من خلال ضبط سمة src
على عنوان URL للكائن الذي تم إنشاؤه باستخدام URL.createObjectURL()
، ولكن تم إيقاف هذه الطريقة نهائيًا.
يمكن أيضًا استخدام getUserMedia
كعقدة إدخال لواجهة برمجة التطبيقات Web Audio API:
// Cope with browser differences.
let audioContext;
if (typeof AudioContext === 'function') {
audioContext = new AudioContext();
} else if (typeof webkitAudioContext === 'function') {
audioContext = new webkitAudioContext(); // eslint-disable-line new-cap
} else {
console.log('Sorry! Web Audio not supported.');
}
// Create a filter node.
var filterNode = audioContext.createBiquadFilter();
// See https://dvcs.w3.org/hg/audio/raw-file/tip/webaudio/specification.html#BiquadFilterNode-section
filterNode.type = 'highpass';
// Cutoff frequency. For highpass, audio is attenuated below this frequency.
filterNode.frequency.value = 10000;
// Create a gain node to change audio volume.
var gainNode = audioContext.createGain();
// Default is 1 (no change). Less than 1 means audio is attenuated
// and vice versa.
gainNode.gain.value = 0.5;
navigator.mediaDevices.getUserMedia({audio: true}, (stream) => {
// Create an AudioNode from the stream.
const mediaStreamSource =
audioContext.createMediaStreamSource(stream);
mediaStreamSource.connect(filterNode);
filterNode.connect(gainNode);
// Connect the gain node to the destination. For example, play the sound.
gainNode.connect(audioContext.destination);
});
يمكن أيضًا دمج getUserMedia
في التطبيقات والإضافات المستندة إلى Chromium. تؤدي إضافة أذونات audioCapture
و/أو videoCapture
إلى ملف البيان إلى السماح بطلب الإذن ومنحه مرة واحدة فقط عند التثبيت. وبعد ذلك، لن يُطلب من المستخدم الإذن بالوصول إلى الكاميرا أو الميكروفون.
يجب منح الإذن مرة واحدة فقط لتطبيق getUserMedia()
. في المرة الأولى، يظهر زر "السماح" في infobar في المتصفّح. أوقف Chrome إمكانية الوصول إلى getUserMedia()
عبر بروتوكول HTTP في نهاية عام 2015 بسبب تصنيفها على أنّها ميزة فعّالة.
من المحتمل أن يكون الغرض من ذلك هو تفعيل MediaStream
لأي مصدر بيانات بث، وليس فقط الكاميرا أو الميكروفون. سيؤدي ذلك إلى تفعيل البث من البيانات المخزّنة أو مصادر البيانات العشوائية، مثل أدوات الاستشعار أو المدخلات الأخرى.
getUserMedia()
تُظهر إمكاناتها الحقيقية عند استخدامها مع مكتبات وواجهات برمجة تطبيقات JavaScript الأخرى:
- Webcam Toy هو تطبيق لإنشاء صور ذاتية باستخدام كاميرا الويب ويستخدم WebGL لإضافة تأثيرات غريبة ورائعة إلى الصور التي يمكن مشاركتها أو حفظها على الجهاز.
- FaceKat هي لعبة تتبُّع الوجه تم إنشاؤها باستخدام headtrackr.js.
- يستخدم تطبيق ASCII Camera واجهة برمجة التطبيقات Canvas API لإنشاء صور ASCII.
القيود
يمكن استخدام القيود لضبط قيم درجة دقة الفيديو في getUserMedia()
. يتيح ذلك أيضًا التوافق مع القيود الأخرى، مثل نسبة العرض إلى الارتفاع ووضع الالتقاط (الكاميرا الأمامية أو الخلفية) وعدد اللقطات في الثانية والارتفاع والعرض وطريقة applyConstraints()
.
على سبيل المثال، يمكنك الاطّلاع على عيّنات WebRTC getUserMedia
: اختيار درجة الدقة.
يؤدي ضبط قيمة قيد غير مسموح بها إلى ظهور DOMException
أو OverconstrainedError
إذا لم يكن القرار المطلوب متاحًا، على سبيل المثال. للاطّلاع على هذا الإجراء، يمكنك الاطّلاع على عيّنات WebRTC getUserMedia
: اختيار درجة الدقة للاطّلاع على عرض توضيحي.
التقاط الشاشة وعلامات التبويب
تتيح تطبيقات Chrome أيضًا مشاركة فيديو مباشر لصفحة ويب واحدة في المتصفّح أو سطح المكتب بالكامل من خلال واجهات برمجة التطبيقات chrome.tabCapture
وchrome.desktopCapture
. (للاطّلاع على عرض توضيحي ومزيد من المعلومات، يمكنك الاطّلاع على مقالة مشاركة الشاشة باستخدام WebRTC.) يعود تاريخ هذه المقالة إلى بضعة أعوام، ولكنّها لا تزال مثيرة للاهتمام.)
من الممكن أيضًا استخدام لقطة شاشة كمصدر MediaStream
في Chrome باستخدام قيد chromeMediaSource
التجريبي. يُرجى العِلم أنّ ميزة "التقاط الشاشة" تتطلّب بروتوكول HTTPS، ويجب عدم استخدامها إلا لأغراض التطوير، وذلك لأنّه يتم تفعيلها من خلال علامة سطر الأوامر كما هو موضّح في هذا المشاركة.
الإشارات: معلومات التحكّم في الجلسة والشبكة والوسائط
تستخدم WebRTC RTCPeerConnection
لتوصيل بيانات البث بين المتصفّحات (المعروفة أيضًا باسم الأجهزة المشابهة)، ولكنها تحتاج أيضًا إلى آلية لتنسيق الاتصالات وإرسال رسائل التحكّم، وهي عملية تُعرف باسم الإرسال. لا تحدّد WebRTC طرق الإرسال والبروتوكولات. لا تشكّل الإشارة جزءًا من واجهة برمجة التطبيقات RTCPeerConnection
.
بدلاً من ذلك، يمكن لمطوّري تطبيقات WebRTC اختيار أي بروتوكول مراسلة يفضّلونه، مثل SIP أو XMPP، وأي قناة اتصال ثنائية الاتجاه (ثنائية) مناسبة. يستخدم مثال appr.tc طلبات XHR وChannel API كآلية إرسال الإشارات. يستخدم الدرس التطبيقي حول الترميز Socket.io الذي يعمل على خادم العقدة.
تُستخدَم الإشارات لتبادل ثلاثة أنواع من المعلومات:
- رسائل التحكّم في الجلسة: لبدء الاتصال أو إغلاقه والإبلاغ عن الأخطاء
- إعدادات الشبكة: ما هو عنوان IP والمنفذ الخاصان بالكمبيوتر في الشبكة الخارجية؟
- إمكانات الوسائط: ما هي برامج الترميز ودرجات الدقة التي يمكن لمتصفّحك والمتصفّح الذي يريد التواصل معه التعامل معها؟
يجب أن يكون تبادل المعلومات من خلال الإشارات قد اكتمل بنجاح قبل بدء البث من جهاز إلى جهاز.
على سبيل المثال، لنفترض أنّ "منى" تريد التواصل مع "عماد". في ما يلي نموذج رمز من مواصفات W3C WebRTC، الذي يعرض عملية الإرسال في الوقت الفعلي. تفترض التعليمة البرمجية توفُّر آلية إرسال إشارات تم إنشاؤها في طريقة createSignalingChannel()
. يُرجى العلم أيضًا أنّه في Chrome وOpera، يتم حاليًا إضافة البادئة RTCPeerConnection
.
// handles JSON.stringify/parse
const signaling = new SignalingChannel();
const constraints = {audio: true, video: true};
const configuration = {iceServers: [{urls: 'stun:stun.example.org'}]};
const pc = new RTCPeerConnection(configuration);
// Send any ice candidates to the other peer.
pc.onicecandidate = ({candidate}) => signaling.send({candidate});
// Let the "negotiationneeded" event trigger offer generation.
pc.onnegotiationneeded = async () => {
try {
await pc.setLocalDescription(await pc.createOffer());
// Send the offer to the other peer.
signaling.send({desc: pc.localDescription});
} catch (err) {
console.error(err);
}
};
// Once remote track media arrives, show it in remote video element.
pc.ontrack = (event) => {
// Don't set srcObject again if it is already set.
if (remoteView.srcObject) return;
remoteView.srcObject = event.streams[0];
};
// Call start() to initiate.
async function start() {
try {
// Get local stream, show it in self-view, and add it to be sent.
const stream =
await navigator.mediaDevices.getUserMedia(constraints);
stream.getTracks().forEach((track) =>
pc.addTrack(track, stream));
selfView.srcObject = stream;
} catch (err) {
console.error(err);
}
}
signaling.onmessage = async ({desc, candidate}) => {
try {
if (desc) {
// If you get an offer, you need to reply with an answer.
if (desc.type === 'offer') {
await pc.setRemoteDescription(desc);
const stream =
await navigator.mediaDevices.getUserMedia(constraints);
stream.getTracks().forEach((track) =>
pc.addTrack(track, stream));
await pc.setLocalDescription(await pc.createAnswer());
signaling.send({desc: pc.localDescription});
} else if (desc.type === 'answer') {
await pc.setRemoteDescription(desc);
} else {
console.log('Unsupported SDP type.');
}
} else if (candidate) {
await pc.addIceCandidate(candidate);
}
} catch (err) {
console.error(err);
}
};
أولاً، يتبادل "أدهم" و"بسام" معلومات الشبكة. (يشير التعبير العثور على قنوات اتصال إلى عملية العثور على واجهات الشبكة والمنافذ باستخدام إطار عمل ICE).
- تنشئ "ليلى" عنصر
RTCPeerConnection
باستخدام معالِجonicecandidate
، والذي يتم تشغيله عندما تصبح مرشحات الشبكة متاحة. - تُرسِل "أليس" بيانات المرشحين المتسلسلة إلى "بدر" من خلال أي قناة إشارات يستخدمها، مثل WebSocket أو آلية أخرى.
- عندما يتلقّى "بدر" رسالة مرشحة من "أسيل"، يتصل بـ
addIceCandidate
لإضافة المرشح إلى وصف المثيل البعيد.
يجب أيضًا أن يتأكد عملاء WebRTC (المعروفون أيضًا باسم الأجهزة المشابهة أو "أليس" و"بوب" في هذا المثال) من تبادل معلومات وسائط الصوت والفيديو المحلية والبعيدة، مثل دقة الشاشة وإمكانات ترميز الصوت. تستمرّ عملية إرسال الإشارات لتبادل معلومات ضبط الوسائط من خلال تبادل عرض وإجابة باستخدام بروتوكول وصف الجلسة (SDP):
- تُجري "أليس" طريقة
RTCPeerConnection
createOffer()
. يتمّ تمرير القيمة الناتجة عن هذا الإجراء إلىRTCSessionDescription
، وهو وصف الجلسة المحلية لـ "منى". - في ردّ الاتصال، تحدّد "ليلى" الوصف المحلي باستخدام
setLocalDescription()
، ثم ترسل وصف الجلسة هذا إلى "عادل" من خلال قناة الإشارات. يُرجى العِلم أنّRTCPeerConnection
لن يبدأ في جمع المرشحين إلى أن يتم استدعاءsetLocalDescription()
. تم وضع هذه المعايير في مسودة JSEP من IETF. - يضبط "بدر" الوصف الذي أرسلته إليه "نور" كوصف عن بُعد باستخدام
setRemoteDescription()
. - يُجري "بوب" طريقة
RTCPeerConnection
createAnswer()
، ويمرّر إليها الوصف عن بُعد الذي حصل عليه من "أليسا" حتى يمكن إنشاء جلسة محلية متوافقة مع جلستها. يتم تمريرRTCSessionDescription
إلى دالة ردّ الاتصالcreateAnswer()
. يضبط "بوب" ذلك على أنّه الوصف المحلي ويرسله إلى "أليسا". - عندما تتلقّى "ليلى" وصف جلسة "بدر"، تحدّده كوصف عن بُعد باستخدام
setRemoteDescription
. - مرحبًا،
عناصر RTCSessionDescription
هي مجموعات بيانات تتّبع بروتوكول وصف الجلسة. بعد التسلسل، يظهر عنصر SDP على النحو التالي:
v=0
o=- 3883943731 1 IN IP4 127.0.0.1
s=
t=0 0
a=group:BUNDLE audio video
m=audio 1 RTP/SAVPF 103 104 0 8 106 105 13 126
// ...
a=ssrc:2223794119 label:H4fjnMzxy3dPIgQ7HxuCTLb4wLLLeRHnFxh810
يمكن الحصول على معلومات الشبكة والوسائط وتبادلها في الوقت نفسه، ولكن يجب أن تكتمل كلتا العمليتين قبل بدء بث الصوت والفيديو بين الأجهزة المشابهة.
تُعرف بنية العرض/الردّ الموضّحة سابقًا باسم بروتوكول إنشاء جلسة JavaScript أو JSEP. (يتوفر فيديو رسوم متحركة رائع يشرح عملية الإرسال والبث في الفيديو التجريبي من Ericsson لتنفيذ WebRTC لأول مرة).
بعد اكتمال عملية الإرسال بنجاح، يمكن بث البيانات مباشرةً من نظير إلى نظير بين المتصل والمتصل به، أو من خلال خادم إعادة توجيه وسيط في حال تعذّر ذلك (مزيد من المعلومات حول ذلك لاحقًا). إنّ بث المحتوى هو وظيفة RTCPeerConnection
.
RTCPeerConnection
RTCPeerConnection
هو مكوّن WebRTC الذي يعالج الاتصالات الثابتة والفعّالة لبيانات البث بين الأجهزة المشابهة.
في ما يلي مخطّط بياني لبنية WebRTC يوضّح دور RTCPeerConnection
. كما ستلاحظ، الأجزاء الخضراء معقّدة.
من منظور JavaScript، فإنّ أهم ما يجب فهمه من هذا المخطّط البياني هو أنّ RTCPeerConnection
تحمي مطوّري الويب من التعقيدات العديدة التي تكمن تحتها. تُجري برامج الترميز والبروتوكولات التي يستخدمها WebRTC قدرًا كبيرًا من العمل لتسهيل الاتصال في الوقت الفعلي، حتى على الشبكات غير الموثوق بها:
- إخفاء فقدان الحزمة
- إلغاء الصدى
- قدرة التكيف مع معدل نقل البيانات
- التخزين المؤقت الديناميكي للتشويش
- التحكم الآلي في الصوت
- تقليل الضوضاء وكتمها
- تنظيف الصور
تعرِض التعليمة البرمجية السابقة من W3C مثالاً مبسطًا على WebRTC من منظور الإشارات. في ما يلي خطوات تفصيلية حول تطبيقَين يعملان باستخدام WebRTC. الأول هو مثال بسيط يوضّح RTCPeerConnection
والثاني هو برنامج عملاء مخصّص للمحادثات المرئية يعمل بكامل طاقته.
RTCPeerConnection بدون خوادم
تم أخذ الرمز البرمجي التالي من عيّنات WebRTC Peer connection، التي تتضمّن RTCPeerConnection
و عن بُعد (وفيديو محلي وآخر عن بُعد) على صفحة ويب واحدة. لا يشكّل ذلك أيّ فائدة كبيرة، لأنّ المُرسِل والمُستلِم هما في الصفحة نفسها، ولكنّه يجعل آلية عمل واجهة برمجة التطبيقات RTCPeerConnection
أكثر وضوحًا لأنّ عناصر RTCPeerConnection
في الصفحة يمكنها تبادل البيانات والرسائل مباشرةً بدون الحاجة إلى استخدام آليات الإرسال والاستقبال الوسيطة.
في هذا المثال، يمثّل pc1
المضيف المحلي (المتصل) ويمثّل pc2
المضيف البعيد (المُتصل به).
المُتصِل
- أنشئ
RTCPeerConnection
جديدًا وأضِف البث منgetUserMedia()
: ```js // Servers هو ملف إعدادات اختياري. (راجِع مناقشة TURN وSTUN لاحقًا.) pc1 = new RTCPeerConnection(servers); // ... localStream.getTracks().forEach((track) => { pc1.addTrack(track, localStream); });
- أنشئ عرضًا تجاريًا واضبطه كوصف محلي لـ
pc1
وكوصف عن بُعد لـpc2
. يمكن إجراء ذلك مباشرةً في الرمز البرمجي بدون استخدام الإشارات لأنّ المتصل والمتصل به في الصفحة نفسها:js pc1.setLocalDescription(desc).then(() => { onSetLocalSuccess(pc1); }, onSetSessionDescriptionError ); trace('pc2 setRemoteDescription start'); pc2.setRemoteDescription(desc).then(() => { onSetRemoteSuccess(pc2); }, onSetSessionDescriptionError );
متلقّي رد الاتصال
- أنشئ
pc2
، وعند إضافة البث منpc1
، اعرضه في عنصر فيديو:js pc2 = new RTCPeerConnection(servers); pc2.ontrack = gotRemoteStream; //... function gotRemoteStream(e){ vid2.srcObject = e.stream; }
RTCPeerConnection
واجهة برمجة التطبيقات والخوادم
في الواقع، تحتاج WebRTC إلى خوادم، مهما كانت بسيطة، لكي يحدث ما يلي:
- يتعرّف المستخدمون على بعضهم ويتبادلون تفاصيل من الواقع، مثل الأسماء.
- تتبادل تطبيقات WebRTC العميلة (الأجهزة المشابهة) معلومات الشبكة.
- تتبادل الأجهزة المتكافئة البيانات حول الوسائط، مثل تنسيق الفيديو ودرجة دقته.
- تنتقل تطبيقات WebRTC العميلة عبر بوابات NAT وجدران الحماية.
بعبارة أخرى، تحتاج WebRTC إلى أربعة أنواع من الوظائف من جهة الخادم:
- اكتشاف المستخدمين والتواصل معهم
- إرسال الإشارات
- اجتياز جدار الحماية أو ترجمة عنوان IP
- خوادم الإعادة في حال تعذّر الاتصال المباشر بين الأجهزة
لا يتناول هذا المقال عبور جدار الحماية (NAT) والشبكات من نظير إلى نظير ومتطلبات إنشاء تطبيق خادم لاكتشاف المستخدمين وإرسال الإشارات إليهم. يكفي القول إنّ إطار عمل ICE يستخدم بروتوكول STUN وإضافة TURN لتمكين RTCPeerConnection
من التعامل مع عبور NAT والمشاكل الأخرى في الشبكة.
ICE هو إطار عمل لربط الأجهزة المشابهة، مثل برنامجَي محادثة فيديو. في البداية، يحاول بروتوكول ICE ربط الأجهزة المشابهة مباشرةً بأقل وقت استجابة ممكن من خلال بروتوكول UDP. في هذه العملية، يكون لخوادم STUN مهمة واحدة: السماح لخادم تابع خلف شبكة تحويل عنوان (NAT) بمعرفة عنوانه العلني ومنفذه. (لمزيد من المعلومات عن STUN وTURN، يُرجى الاطّلاع على مقالة إنشاء خدمات الخلفية اللازمة لتطبيق WebRTC).
إذا تعذّر استخدام بروتوكول UDP، يحاول بروتوكول ICE استخدام بروتوكول TCP. في حال تعذّر الاتصال المباشر، خاصةً بسبب جدار الحماية وعبور NAT في المؤسسات، يستخدم بروتوكول ICE خادم TURN وسيطًا (مُرسِل). بعبارة أخرى، يستخدم بروتوكول ICE أولاً بروتوكول STUN مع بروتوكول UDP لربط الأجهزة المتكافئة مباشرةً، وفي حال تعذّر ذلك، يتم الرجوع إلى خادم ترحيل TURN. يشير التعبير العثور على المرشحين إلى عملية العثور على واجهات الشبكة والمنافذ.
يقدّم مهندس WebRTC، جاستين أوبيرتي، مزيدًا من المعلومات حول بروتوكول ICE وSTUN وTURN في عرض WebRTC في مؤتمر Google I/O لعام 2013. (تقدّم شرائح العرض أمثلة على عمليات تنفيذ خادمَي TURN وSTUN).
برنامج بسيط لمحادثات الفيديو
يمكنك تجربة WebRTC، مع إشارات وعبور NAT/جدار الحماية باستخدام خادم STUN، في العرض التجريبي لمكالمات الفيديو على الرابط appr.tc. يستخدم هذا التطبيق adapter.js، وهو عنصر وسيط لحماية التطبيقات من التغييرات في المواصفات والاختلافات في البادئة.
التعليمة البرمجية مفصّلة بشكل متعمّد في التسجيل. راجِع وحدة التحكّم لمعرفة ترتيب الأحداث. في ما يلي جولة تفصيلية في الرمز.
تصاميم الشبكات
لا يتيح WebRTC، على النحو المُنفَّذ حاليًا، سوى التواصل بين شخصَين، ولكن يمكن استخدامه في سيناريوهات الشبكة الأكثر تعقيدًا، مثل مشاركة عدة أجهزة مع بعضها البعض مباشرةً أو من خلال وحدة التحكّم المتعدّد (MCU)، وهو خادم يمكنه التعامل مع أعداد كبيرة من المشاركين وإعادة توجيه البث بشكل انتقائي، ومزج الصوت والفيديو أو تسجيلهما.
لا تُظهر العديد من تطبيقات WebRTC الحالية سوى الاتصالات بين متصفّحات الويب، ولكن يمكن لخوادم البوابة تفعيل تطبيق WebRTC الذي يعمل على متصفّح للتفاعل مع الأجهزة، مثل الهواتف (المعروفة أيضًا باسم شبكة خدمات الهاتف العام) وأنظمة VOIP. في أيار (مايو) 2012، فتحت شركة Doubango Telecom رمز المصدر الخاص ببرنامج SIPml5 SIP client الذي تم إنشاؤه باستخدام WebRTC وWebSocket، ما يتيح (من بين الاستخدامات المحتملة الأخرى) إجراء مكالمات فيديو بين المتصفّحات والتطبيقات التي تعمل على نظامَي التشغيل iOS وAndroid. في مؤتمر Google I/O، عرضت شركتا Tethr وTropo إطار عمل للتواصل في حالات الكوارث في حقيبة باستخدام خلية OpenBTS لتفعيل الاتصالات بين الهواتف المزوّدة بميزات أساسية وأجهزة الكمبيوتر من خلال WebRTC. التواصل الهاتفي بدون مشغّل شبكة جوّال
RTCDataChannel
API<
بالإضافة إلى الصوت والفيديو، يتيح WebRTC إمكانية التواصل في الوقت الفعلي لأنواع أخرى من البيانات.
تتيح واجهة برمجة التطبيقات RTCDataChannel
إمكانية تبادل البيانات العشوائية بين الأجهزة من نظير إلى نظير مع وقت استجابة منخفض ومعدل نقل بيانات مرتفع. للاطّلاع على العروض التوضيحية لصفحة واحدة ومعرفة كيفية إنشاء تطبيق بسيط لنقل الملفات، يمكنك الاطّلاع على عيّنات WebRTC والدرس التطبيقي حول WebRTC، على التوالي.
هناك العديد من حالات الاستخدام المحتملة لواجهة برمجة التطبيقات، بما في ذلك:
- ألعاب فيديو
- تطبيقات سطح المكتب البعيد
- المراسلة النصية في الوقت الفعلي
- نقل الملفات
- الشبكات اللامركزية
تتضمّن واجهة برمجة التطبيقات عدة ميزات للاستفادة إلى أقصى حد من RTCPeerConnection
وتفعيل اتصالات قوية ومرنة بين الأجهزة:
- الاستفادة من إعداد جلسة
RTCPeerConnection
- قنوات متعدّدة في الوقت نفسه مع تحديد الأولويات
- دلالات التسليم الموثوق به وغير الموثوق به
- أمان مدمج (DTLS) والتحكّم في الازدحام
- إمكانية استخدامها مع أو بدون صوت أو فيديو
تتشابه البنية مع WebSocket عن قصد باستخدام طريقة send()
وحدث message
:
const localConnection = new RTCPeerConnection(servers);
const remoteConnection = new RTCPeerConnection(servers);
const sendChannel =
localConnection.createDataChannel('sendDataChannel');
// ...
remoteConnection.ondatachannel = (event) => {
receiveChannel = event.channel;
receiveChannel.onmessage = onReceiveMessage;
receiveChannel.onopen = onReceiveChannelStateChange;
receiveChannel.onclose = onReceiveChannelStateChange;
};
function onReceiveMessage(event) {
document.querySelector("textarea#send").value = event.data;
}
document.querySelector("button#send").onclick = () => {
var data = document.querySelector("textarea#send").value;
sendChannel.send(data);
};
يحدث التواصل مباشرةً بين المتصفّحات، لذا يمكن أن يكون RTCDataChannel
أسرع بكثير من WebSocket حتى إذا كان خادم إعادة توجيه (TURN) مطلوبًا عند إجراء عملية "ثقب الحائط" للتعامل مع جدران الحماية وشبكات ترجمة عنوان الإنترنت (NAT).
يتوفّر RTCDataChannel
في Chrome وSafari وFirefox وOpera وSamsung Internet. تستخدم لعبة Cube Slam واجهة برمجة التطبيقات للتواصل بشأن حالة اللعبة. يمكنك لعب دور الدب أو دور صديقك. سمحت المنصة المبتكرة Sharefest بمشاركة الملفات من خلال RTCDataChannel
وpeerCDN، ما قدّم لمحة عن كيفية تمكّن WebRTC من توزيع المحتوى بين الأجهزة.
لمزيد من المعلومات حول RTCDataChannel
، يمكنك الاطّلاع على مسودة مواصفات البروتوكول الصادرة عن IETF.
الأمان
هناك عدة طرق يمكن أن يؤدي من خلالها تطبيق أو مكوّن إضافي للتواصل في الوقت الفعلي إلى اختراق الأمان. على سبيل المثال:
- قد يتم اعتراض الوسائط أو البيانات غير المشفَّرة بين المتصفّحات أو بين متصفّح وخادم.
- قد يسجِّل التطبيق فيديو أو صوتًا ويوزّعه بدون علم المستخدم.
- قد يتم تثبيت برامج ضارة أو فيروسات إلى جانب مكوّن إضافي أو تطبيق يبدوان غير ضارّين.
توفّر WebRTC عدة ميزات لتجنُّب هذه المشاكل:
- تستخدم عمليات تنفيذ WebRTC بروتوكولات آمنة، مثل DTLS وSRTP.
- يكون التشفير إلزاميًا لجميع مكونات WebRTC، بما في ذلك آليات الإرسال.
- WebRTC ليس مكوّنًا إضافيًا. ويتم تشغيل مكوناتها في مساحة وضع الحماية في المتصفّح وليس في عملية منفصلة. لا تتطلّب المكوّنات عملية تثبيت منفصلة ويتم تحديثها عند تحديث المتصفّح.
- يجب منح الإذن بالوصول إلى الكاميرا والميكروفون بشكل صريح، ويجب أن تعرض واجهة المستخدم هذا الإذن بوضوح عند تشغيل الكاميرا أو الميكروفون.
لا تتناول هذه المقالة مناقشة كاملة حول أمان بث الوسائط. لمزيد من المعلومات، يُرجى الاطّلاع على البنية المقترَحة لأمان WebRTC التي اقترحتها مؤسسة IETF.
الخلاصة
يمكن أن توفّر واجهات برمجة التطبيقات ومعايير WebRTC أدوات إنشاء المحتوى والتواصل بشكل ديمقراطي لا مركزي، بما في ذلك الاتصالات الهاتفية والألعاب وإنتاج الفيديوهات وإنشاء الموسيقى وجمع الأخبار.
لا يمكن أن تكون التكنولوجيا أكثر توغّلاً من ذلك.
على حد تعبير المدوّن "فيل إدهولم" ، "من المحتمل أن توفّر WebRTC وHTML5 التحويل نفسه للتواصل في الوقت الفعلي الذي يوفّره المتصفّح الأصلي للمعلومات".
أدوات المطوّرين
- يمكن العثور على إحصاءات WebRTC لجلسة جارية على الرابط التالي:
- about://webrtc-internals في Chrome
- opera://webrtc-internals في Opera
- about:webrtc في Firefox
- ملاحظات حول إمكانية التشغيل التفاعلي بين المتصفّحات
- adapter.js هو رمز JavaScript لواجهة WebRTC تديره Google بمساعدة منتدى WebRTC، وهو يلخّص بادئات المورّدين والاختلافات بين المتصفّحات وتغييرات المواصفات.
- لمعرفة المزيد من المعلومات عن عمليات إرسال الإشارات في WebRTC، اطّلِع على إخراج سجلّ appr.tc في وحدة التحكّم.
- إذا كان ذلك كثيرًا، يمكنك استخدام إطار عمل WebRTC أو حتى خدمة WebRTC كاملة.
- نحن نقدّر دائمًا تقارير الأخطاء وطلبات الميزات:
مزيد من المعلومات
- جلسة Justin Uberti حول WebRTC في مؤتمر Google I/O لعام 2012
- كمال جونستون ودانيال سي ينشر "بيرنت" كتابًا عن WebRTC في طبعته الثالثة بتنسيقَي الكتاب المطبوع والكتاب الإلكتروني على الرابط webrtcbook.com.
- يقدّم الموقع الإلكتروني webrtc.org كل ما يتعلّق بتكنولوجيا WebRTC، بما في ذلك العروض التوضيحية والمستندات والمناقشات.
- discuss-webrtc هي مجموعة على Google لمناقشة المواضيع الفنية حول WebRTC.
- @webrtc
- تقدّم مستندات Talk لمطوّري تطبيقات Google مزيدًا من المعلومات حول عبور جدار الحماية (NAT) وبروتوكول STUN وخوادم الإعادة وجمع المرشحين.
- WebRTC على GitHub
- Stack Overflow هو مكان جيد للبحث عن إجابات وطرح أسئلة حول WebRTC.
المعايير والبروتوكولات
- مسودة WebRTC W3C Editor's Draft
- مسودة المحرر في W3C: تسجيل الوسائط وبثها (المعروفة أيضًا باسم
getUserMedia
) - مخطط عمل فريق IETF
- مسودة بروتوكول قناة البيانات في WebRTC الصادرة عن مجموعة مهندسي شبكة الإنترنت (IETF)
- مسودة JSEP من IETF
- المعيار المقترَح من مجموعة مهندسي الإنترنت (IETF) لبروتوكول ICE
- مسودة الإنترنت الخاصة بمجموعة عمل RTCWEB في IETF: حالات استخدام ميزة "التواصل في الوقت الفعلي على الويب" ومتطلباتها
ملخّص دعم WebRTC
واجهات برمجة التطبيقات MediaStream
وgetUserMedia
- الإصدار 18.0.1008 من متصفّح Chrome للكمبيوتر المكتبي والإصدارات الأحدث، والإصدار 29 من متصفّح Chrome لأجهزة Android والإصدارات الأحدث
- الإصدار 18 من Opera والإصدارات الأحدث، والإصدار 20 من Opera لنظام التشغيل Android والإصدارات الأحدث
- Opera 12 وOpera Mobile 12 (استنادًا إلى محرّك Presto)
- الإصدار 17 من Firefox والإصدارات الأحدث
- الإصدار 16 من Microsoft Edge والإصدارات الأحدث
- الإصدار 11.2 من Safari والإصدارات الأحدث على نظام التشغيل iOS والإصدار 11.1 والإصدارات الأحدث على نظام التشغيل MacOS
- الإصدار 11.8 من UC والإصدارات الأحدث على أجهزة Android
- الإصدار 4 من تطبيق Samsung Internet والإصدارات الأحدث
RTCPeerConnection
واجهة برمجة التطبيقات
- الإصدار 20 من متصفّح Chrome للكمبيوتر المكتبي والإصدارات الأحدث، والإصدار 29 من متصفّح Chrome لأجهزة Android والإصدارات الأحدث (بدون علامة)
- الإصدار 18 من Opera والإصدارات الأحدث (مفعّلة تلقائيًا)؛ الإصدار 20 من Opera لأجهزة Android والإصدارات الأحدث (مفعّلة تلقائيًا)
- الإصدار 22 من Firefox والإصدارات الأحدث (يكون مفعّلاً تلقائيًا)
- الإصدار 16 من Microsoft Edge والإصدارات الأحدث
- الإصدار 11.2 من Safari والإصدارات الأحدث على نظام التشغيل iOS والإصدار 11.1 والإصدارات الأحدث على نظام التشغيل MacOS
- الإصدار 4 من تطبيق Samsung Internet والإصدارات الأحدث
RTCDataChannel
واجهة برمجة التطبيقات
- الإصدار التجريبي في الإصدار 25 من Chrome، ولكن الإصدار 26 من Chrome والإصدارات الأحدث أكثر ثباتًا (ومتوافق مع Firefox)، وكذلك الإصدار 29 من Chrome لأجهزة Android والإصدارات الأحدث
- الإصدار الثابت (ومع إمكانية التشغيل التفاعلي مع Firefox) في Opera 18 والإصدارات الأحدث، وOpera لنظام التشغيل Android 20 والإصدارات الأحدث
- الإصدار 22 من Firefox والإصدارات الأحدث (يكون مفعّلاً تلقائيًا)
للحصول على معلومات أكثر تفصيلاً حول توافق واجهات برمجة التطبيقات مع الأنظمة الأساسية المختلفة، مثل getUserMedia
وRTCPeerConnection
، يُرجى الاطّلاع على caniuse.com وحالة النظام الأساسي Chrome.
تتوفّر أيضًا واجهات برمجة التطبيقات الأصلية لنظام التشغيل RTCPeerConnection
على مستندات webrtc.org.