اصول WebGL
WebGL امکان نمایش گرافیک های سه بعدی بیدرنگ شگفت انگیز را در مرورگر شما فراهم می کند، اما چیزی که بسیاری از مردم نمی دانند این است که WebGL در واقع یک API دو بعدی است، نه یک API سه بعدی. بذار توضیح بدم
WebGL فقط به 2 چیز اهمیت می دهد. مختصات Clipspace به صورت دو بعدی و رنگی. وظیفه شما به عنوان یک برنامه نویس با استفاده از WebGL این است که این 2 مورد را در اختیار WebGL قرار دهید. برای انجام این کار، 2 "سایدر" ارائه می دهید. یک سایه زن Vertex که مختصات فضای کلیپ را فراهم می کند و یک سایه زن قطعه که رنگ را فراهم می کند. مختصات Clipspace همیشه از 1- به 1+ میرود بدون توجه به اندازه بوم شما. در اینجا یک مثال ساده WebGL است که WebGL را در ساده ترین شکل آن نشان می دهد.
// Get A WebGL context
var canvas = document.getElementById("canvas");
var gl = canvas.getContext("experimental-webgl");
// setup a GLSL program
var vertexShader = createShaderFromScriptElement(gl, "2d-vertex-shader");
var fragmentShader = createShaderFromScriptElement(gl, "2d-fragment-shader");
var program = createProgram(gl, [vertexShader, fragmentShader]);
gl.useProgram(program);
// look up where the vertex data needs to go.
var positionLocation = gl.getAttribLocation(program, "a_position");
// Create a buffer and put a single clipspace rectangle in
// it (2 triangles)
var buffer = gl.createBuffer();
gl.bindBuffer(gl.ARRAY_BUFFER, buffer);
gl.bufferData(
gl.ARRAY_BUFFER,
new Float32Array([
-1.0, -1.0,
1.0, -1.0,
-1.0, 1.0,
-1.0, 1.0,
1.0, -1.0,
1.0, 1.0]),
gl.STATIC_DRAW);
gl.enableVertexAttribArray(positionLocation);
gl.vertexAttribPointer(positionLocation, 2, gl.FLOAT, false, 0, 0);
// draw
gl.drawArrays(gl.TRIANGLES, 0, 6);
در اینجا 2 سایه زن هستند
<script id="2d-vertex-shader" type="x-shader/x-vertex">
attribute vec2 a_position;
void main() {
gl_Position = vec4(a_position, 0, 1);
}
</script>
<script id="2d-fragment-shader" type="x-shader/x-fragment">
void main() {
gl_FragColor = vec4(0,1,0,1); // green
}
</script>
باز هم، مختصات فضای کلیپ بدون توجه به اندازه بوم همیشه از 1- به 1+ میرود. در مورد بالا می بینید که ما هیچ کاری جز انتقال مستقیم داده های موقعیت خود انجام نمی دهیم. از آنجایی که داده های موقعیت از قبل در فضای کلیپ هستند، کاری برای انجام دادن وجود ندارد. اگر میخواهید سه بعدی باشد، به شما بستگی دارد که سایهبانهایی را تهیه کنید که از سه بعدی به دو بعدی تبدیل میشوند، زیرا WebGL یک API دو بعدی است! برای چیزهای دو بعدی احتمالاً ترجیح می دهید در پیکسل کار کنید تا فضای کلیپ، بنابراین بیایید سایه زن را تغییر دهیم تا بتوانیم مستطیل ها را در پیکسل عرضه کنیم و آن را به فضای کلیپ برای ما تبدیل کنیم. در اینجا سایه زن راس جدید است
<script id="2d-vertex-shader" type="x-shader/x-vertex">
attribute vec2 a_position;
uniform vec2 u_resolution;
void main() {
// convert the rectangle from pixels to 0.0 to 1.0
vec2 zeroToOne = a_position / u_resolution;
// convert from 0->1 to 0->2
vec2 zeroToTwo = zeroToOne * 2.0;
// convert from 0->2 to -1->+1 (clipspace)
vec2 clipSpace = zeroToTwo - 1.0;
gl_Position = vec4(clipSpace, 0, 1);
}
</script>
اکنون می توانیم داده های خود را از فضای کلیپ به پیکسل تغییر دهیم
// set the resolution
var resolutionLocation = gl.getUniformLocation(program, "u_resolution");
gl.uniform2f(resolutionLocation, canvas.width, canvas.height);
// setup a rectangle from 10,20 to 80,30 in pixels
gl.bufferData(gl.ARRAY_BUFFER, new Float32Array([
10, 20,
80, 20,
10, 30,
10, 30,
80, 20,
80, 30]), gl.STATIC_DRAW);
ممکن است متوجه شوید که مستطیل نزدیک به پایین آن ناحیه است. WebGL گوشه پایین سمت چپ را 0.0 در نظر می گیرد. برای اینکه آن را به گوشه سمت چپ سنتیتر تبدیل کنیم که برای APIهای گرافیکی دوبعدی استفاده میشود، فقط مختصات y را برگردانیم.
gl_Position = vec4(clipSpace * vec2(1, -1), 0, 1);
بیایید کدی که یک مستطیل را تعریف می کند به یک تابع تبدیل کنیم تا بتوانیم آن را برای مستطیل های با اندازه های مختلف فراخوانی کنیم. در حالی که ما در آن هستیم، رنگ را قابل تنظیم خواهیم کرد. ابتدا شیدر قطعه را به یک ورودی یکنواخت رنگی تبدیل می کنیم.
<script id="2d-fragment-shader" type="x-shader/x-fragment">
precision mediump float;
uniform vec4 u_color;
void main() {
gl_FragColor = u_color;
}
</script>
و در اینجا کد جدیدی است که 50 مستطیل را در مکان های تصادفی و رنگ های تصادفی ترسیم می کند.
...
var colorLocation = gl.getUniformLocation(program, "u_color");
...
// Create a buffer
var buffer = gl.createBuffer();
gl.bindBuffer(gl.ARRAY_BUFFER, buffer);
gl.enableVertexAttribArray(positionLocation);
gl.vertexAttribPointer(positionLocation, 2, gl.FLOAT, false, 0, 0);
// draw 50 random rectangles in random colors
for (var ii = 0; ii < 50; ++ii) {
// Setup a random rectangle
setRectangle(
gl, randomInt(300), randomInt(300), randomInt(300), randomInt(300));
// Set a random color.
gl.uniform4f(colorLocation, Math.random(), Math.random(), Math.random(), 1);
// Draw the rectangle.
gl.drawArrays(gl.TRIANGLES, 0, 6);
}
}
// Returns a random integer from 0 to range - 1.
function randomInt(range) {
return Math.floor(Math.random() * range);
}
// Fills the buffer with the values that define a rectangle.
function setRectangle(gl, x, y, width, height) {
var x1 = x;
var x2 = x + width;
var y1 = y;
var y2 = y + height;
gl.bufferData(gl.ARRAY_BUFFER, new Float32Array([
x1, y1,
x2, y1,
x1, y2,
x1, y2,
x2, y1,
x2, y2]), gl.STATIC_DRAW);
}
امیدوارم بتوانید ببینید که WebGL در واقع یک API بسیار ساده است. در حالی که انجام سه بعدی میتواند پیچیدهتر شود، اما پیچیدگی توسط شما، برنامهنویس، به شکل سایهزنهای پیچیدهتر اضافه میشود. WebGL API خود دوبعدی و نسبتاً ساده است.
type="x-shader/x-vertex" و type="x-shader/x-fragment" به چه معناست؟
تگ های <script>
به طور پیش فرض دارای جاوا اسکریپت در آنها هستند. شما می توانید بدون نوع قرار دهید یا می توانید type="javascript"
یا type="text/javascript"
را قرار دهید و مرورگر مطالب را به عنوان JavaScript تفسیر می کند. اگر چیز دیگری قرار دهید، مرورگر محتویات تگ اسکریپت را نادیده می گیرد.
ما می توانیم از این ویژگی برای ذخیره سایه بان ها در تگ های اسکریپت استفاده کنیم. حتی بهتر از آن، ما میتوانیم نوع خودمان را بسازیم و در جاوا اسکریپت به دنبال آن باشیم تا تصمیم بگیریم که سایهزن را بهعنوان سایهزن رأس کامپایل کنیم یا سایهزن قطعه.
در این مورد تابع createShaderFromScriptElement
به دنبال یک اسکریپت با id
مشخص می گردد و سپس به type
آن نگاه می کند تا تصمیم بگیرد چه نوع سایه زن را ایجاد کند.
پردازش تصویر WebGL
پردازش تصویر در WebGL آسان است. چقدر راحت زیر را بخوانید.
برای ترسیم تصاویر در WebGL باید از بافت ها استفاده کنیم. مشابه روشی که WebGL هنگام رندر کردن به جای پیکسل ها انتظار مختصات فضای کلیپ را دارد، WebGL هنگام خواندن یک بافت انتظار مختصات بافت را دارد. مختصات بافت بدون توجه به ابعاد بافت از 0.0 به 1.0 میرود. از آنجایی که ما فقط یک مستطیل می کشیم (خوب، 2 مثلث)، باید به WebGL بگوییم که هر نقطه از مستطیل با کدام مکان بافت مطابقت دارد. ما این اطلاعات را با استفاده از نوع خاصی از متغیر به نام "متغیر" از سایهزن راس به سایهزن قطعه ارسال میکنیم. به آن متغیر می گویند زیرا متفاوت است. WebGL مقادیری را که ما در سایهزن راس ارائه میدهیم درونیابی میکند، زیرا هر پیکسل را با استفاده از سایهزن قطعه ترسیم میکند. با استفاده از سایهزن رأس از انتهای بخش قبل، باید یک ویژگی برای ارسال مختصات بافت اضافه کنیم و سپس آنها را به shader قطعه منتقل کنیم.
attribute vec2 a_texCoord;
...
varying vec2 v_texCoord;
void main() {
...
// pass the texCoord to the fragment shader
// The GPU will interpolate this value between points
v_texCoord = a_texCoord;
}
سپس یک قطعه سایه زن برای جستجوی رنگ ها از بافت ارائه می کنیم.
<script id="2d-fragment-shader" type="x-shader/x-fragment">
precision mediump float;
// our texture
uniform sampler2D u_image;
// the texCoords passed in from the vertex shader.
varying vec2 v_texCoord;
void main() {
// Look up a color from the texture.
gl_FragColor = texture2D(u_image, v_texCoord);
}
</script>
در نهایت باید یک تصویر بارگذاری کنیم، یک بافت ایجاد کنیم و تصویر را در بافت کپی کنیم. از آنجایی که ما در یک مرورگر هستیم، تصاویر به صورت ناهمزمان بارگیری میشوند، بنابراین باید کمی کد خود را دوباره مرتب کنیم تا منتظر بمانیم تا بافت بارگذاری شود. پس از بارگذاری آن را می کشیم.
function main() {
var image = new Image();
image.src = "http://someimage/on/our/server"; // MUST BE SAME DOMAIN!!!
image.onload = function() {
render(image);
}
}
function render(image) {
...
// all the code we had before.
...
// look up where the texture coordinates need to go.
var texCoordLocation = gl.getAttribLocation(program, "a_texCoord");
// provide texture coordinates for the rectangle.
var texCoordBuffer = gl.createBuffer();
gl.bindBuffer(gl.ARRAY_BUFFER, texCoordBuffer);
gl.bufferData(gl.ARRAY_BUFFER, new Float32Array([
0.0, 0.0,
1.0, 0.0,
0.0, 1.0,
0.0, 1.0,
1.0, 0.0,
1.0, 1.0]), gl.STATIC_DRAW);
gl.enableVertexAttribArray(texCoordLocation);
gl.vertexAttribPointer(texCoordLocation, 2, gl.FLOAT, false, 0, 0);
// Create a texture.
var texture = gl.createTexture();
gl.bindTexture(gl.TEXTURE_2D, texture);
// Set the parameters so we can render any size image.
gl.texParameteri(gl.TEXTURE_2D, gl.TEXTURE_WRAP_S, gl.CLAMP_TO_EDGE);
gl.texParameteri(gl.TEXTURE_2D, gl.TEXTURE_WRAP_T, gl.CLAMP_TO_EDGE);
gl.texParameteri(gl.TEXTURE_2D, gl.TEXTURE_MIN_FILTER, gl.NEAREST);
gl.texParameteri(gl.TEXTURE_2D, gl.TEXTURE_MAG_FILTER, gl.NEAREST);
// Upload the image into the texture.
gl.texImage2D(gl.TEXTURE_2D, 0, gl.RGBA, gl.RGBA, gl.UNSIGNED_BYTE, image);
...
}
خیلی هیجان انگیز نیست، پس بیایید آن تصویر را دستکاری کنیم. در مورد تعویض قرمز و آبی چطور؟
...
gl_FragColor = texture2D(u_image, v_texCoord).bgra;
...
اگر بخواهیم پردازش تصویری را انجام دهیم که در واقع به پیکسل های دیگر نگاه می کند؟ از آنجایی که WebGL به بافت ها در مختصات بافت ارجاع می دهد که از 0.0 به 1.0 می روند، پس می توانیم با ریاضی ساده onePixel = 1.0 / textureSize
محاسبه کنیم که برای 1 پیکسل چقدر حرکت کنیم. در اینجا یک قطعه سایه زن وجود دارد که میانگین پیکسل های چپ و راست هر پیکسل در بافت را نشان می دهد.
<script id="2d-fragment-shader" type="x-shader/x-fragment">
precision mediump float;
// our texture
uniform sampler2D u_image;
uniform vec2 u_textureSize;
// the texCoords passed in from the vertex shader.
varying vec2 v_texCoord;
void main() {
// compute 1 pixel in texture coordinates.
vec2 onePixel = vec2(1.0, 1.0) / u_textureSize;
// average the left, middle, and right pixels.
gl_FragColor = (
texture2D(u_image, v_texCoord) +
texture2D(u_image, v_texCoord + vec2(onePixel.x, 0.0)) +
texture2D(u_image, v_texCoord + vec2(-onePixel.x, 0.0))) / 3.0;
}
</script>
سپس باید اندازه بافت را از جاوا اسکریپت منتقل کنیم.
...
var textureSizeLocation = gl.getUniformLocation(program, "u_textureSize");
...
// set the size of the image
gl.uniform2f(textureSizeLocation, image.width, image.height);
...
اکنون که می دانیم چگونه به پیکسل های دیگر ارجاع دهیم، اجازه دهید از یک هسته کانولوشن برای انجام یکسری پردازش تصویر رایج استفاده کنیم. در این مورد ما از یک هسته 3x3 استفاده می کنیم. یک هسته کانولوشن فقط یک ماتریس 3x3 است که هر ورودی در ماتریس نشان دهنده میزان ضرب 8 پیکسل در اطراف پیکسلی است که ما ارائه می کنیم. سپس نتیجه را بر وزن هسته (مجموع همه مقادیر موجود در هسته) یا 1.0 تقسیم می کنیم که هر کدام بیشتر باشد. در اینجا یک مقاله بسیار خوب در مورد آن وجود دارد . و در اینجا یک مقاله دیگر وجود دارد که برخی از کدهای واقعی را نشان می دهد اگر بخواهید این را با دست در C++ بنویسید . در مورد ما، این کار را در سایهزن انجام میدهیم، بنابراین در اینجا شیدر قطعه جدید است.
<script id="2d-fragment-shader" type="x-shader/x-fragment">
precision mediump float;
// our texture
uniform sampler2D u_image;
uniform vec2 u_textureSize;
uniform float u_kernel[9];
// the texCoords passed in from the vertex shader.
varying vec2 v_texCoord;
void main() {
vec2 onePixel = vec2(1.0, 1.0) / u_textureSize;
vec4 colorSum =
texture2D(u_image, v_texCoord + onePixel * vec2(-1, -1)) * u_kernel[0] +
texture2D(u_image, v_texCoord + onePixel * vec2( 0, -1)) * u_kernel[1] +
texture2D(u_image, v_texCoord + onePixel * vec2( 1, -1)) * u_kernel[2] +
texture2D(u_image, v_texCoord + onePixel * vec2(-1, 0)) * u_kernel[3] +
texture2D(u_image, v_texCoord + onePixel * vec2( 0, 0)) * u_kernel[4] +
texture2D(u_image, v_texCoord + onePixel * vec2( 1, 0)) * u_kernel[5] +
texture2D(u_image, v_texCoord + onePixel * vec2(-1, 1)) * u_kernel[6] +
texture2D(u_image, v_texCoord + onePixel * vec2( 0, 1)) * u_kernel[7] +
texture2D(u_image, v_texCoord + onePixel * vec2( 1, 1)) * u_kernel[8] ;
float kernelWeight =
u_kernel[0] +
u_kernel[1] +
u_kernel[2] +
u_kernel[3] +
u_kernel[4] +
u_kernel[5] +
u_kernel[6] +
u_kernel[7] +
u_kernel[8] ;
if (kernelWeight <= 0.0) {
kernelWeight = 1.0;
}
// Divide the sum by the weight but just use rgb
// we'll set alpha to 1.0
gl_FragColor = vec4((colorSum / kernelWeight).rgb, 1.0);
}
</script>
در جاوا اسکریپت باید یک هسته کانولوشن تهیه کنیم.
...
var kernelLocation = gl.getUniformLocation(program, "u_kernel[0]");
...
var edgeDetectKernel = [
-1, -1, -1,
-1, 8, -1,
-1, -1, -1
];
gl.uniform1fv(kernelLocation, edgeDetectKernel);
...
امیدوارم این شما را متقاعد کرده باشد که پردازش تصویر در WebGL بسیار ساده است. در ادامه به نحوه اعمال بیش از یک افکت روی تصویر می پردازم.
پیشوندهای a ، u و v_ در از متغیرهای GLSL چیست؟
این فقط یک قرارداد نامگذاری است. a_
برای ویژگی ها که داده های ارائه شده توسط بافرها است. u_
برای لباسهایی که ورودی سایهزنها هستند، v_
برای متغیرهایی که مقادیری هستند که از سایهزن رأس به سایهزن قطعه ارسال میشوند و بین راسها برای هر پیکسل ترسیم شده درونیابی (یا متغیر) هستند.
اعمال افکت های متعدد
واضحترین سوال بعدی برای پردازش تصویر این است که چگونه افکتهای چندگانه را اعمال کنیم؟
خوب، شما می توانید سعی کنید سایه بان ها را در پرواز ایجاد کنید. یک رابط کاربری ارائه دهید که به کاربر امکان میدهد افکتهایی را که میخواهد استفاده کند انتخاب کند و سپس سایهزنی ایجاد کند که همه افکتها را انجام میدهد. این ممکن است همیشه امکان پذیر نباشد، اگرچه این تکنیک اغلب برای ایجاد جلوه های گرافیکی بلادرنگ استفاده می شود. یک راه منعطف تر این است که از 2 بافت دیگر استفاده کنید و به نوبت به هر بافت رندر دهید، پینگ پنگ بزنید و هر بار افکت بعدی را اعمال کنید.
Original Image -> [Blur] -> Texture 1
Texture 1 -> [Sharpen] -> Texture 2
Texture 2 -> [Edge Detect] -> Texture 1
Texture 1 -> [Blur] -> Texture 2
Texture 2 -> [Normal] -> Canvas
برای این کار باید فریم بافر ایجاد کنیم. در WebGL و OpenGL، Framebuffer در واقع نام ضعیفی است. یک فریم بافر WebGL/OpenGL در واقع فقط مجموعه ای از حالت ها است و در واقع یک بافر از هر نوع نیست. اما، با چسباندن یک بافت به یک فریم بافر، میتوانیم آن بافت را رندر کنیم. ابتدا اجازه دهید کد ایجاد بافت قدیمی را به یک تابع تبدیل کنیم
function createAndSetupTexture(gl) {
var texture = gl.createTexture();
gl.bindTexture(gl.TEXTURE_2D, texture);
// Set up texture so we can render any size image and so we are
// working with pixels.
gl.texParameteri(gl.TEXTURE_2D, gl.TEXTURE_WRAP_S, gl.CLAMP_TO_EDGE);
gl.texParameteri(gl.TEXTURE_2D, gl.TEXTURE_WRAP_T, gl.CLAMP_TO_EDGE);
gl.texParameteri(gl.TEXTURE_2D, gl.TEXTURE_MIN_FILTER, gl.NEAREST);
gl.texParameteri(gl.TEXTURE_2D, gl.TEXTURE_MAG_FILTER, gl.NEAREST);
return texture;
}
// Create a texture and put the image in it.
var originalImageTexture = createAndSetupTexture(gl);
gl.texImage2D(gl.TEXTURE_2D, 0, gl.RGBA, gl.RGBA, gl.UNSIGNED_BYTE, image);
و حالا بیایید از این تابع برای ساختن 2 بافت دیگر و وصل کردن آنها به 2 فریم بافر استفاده کنیم.
// create 2 textures and attach them to framebuffers.
var textures = [];
var framebuffers = [];
for (var ii = 0; ii < 2; ++ii) {
var texture = createAndSetupTexture(gl);
textures.push(texture);
// make the texture the same size as the image
gl.texImage2D(
gl.TEXTURE_2D, 0, gl.RGBA, image.width, image.height, 0,
gl.RGBA, gl.UNSIGNED_BYTE, null);
// Create a framebuffer
var fbo = gl.createFramebuffer();
framebuffers.push(fbo);
gl.bindFramebuffer(gl.FRAMEBUFFER, fbo);
// Attach a texture to it.
gl.framebufferTexture2D(
gl.FRAMEBUFFER, gl.COLOR_ATTACHMENT0, gl.TEXTURE_2D, texture, 0);
}
حالا بیایید مجموعه ای از هسته ها و سپس لیستی از آنها را برای اعمال کردن ایجاد کنیم.
// Define several convolution kernels
var kernels = {
normal: [
0, 0, 0,
0, 1, 0,
0, 0, 0
],
gaussianBlur: [
0.045, 0.122, 0.045,
0.122, 0.332, 0.122,
0.045, 0.122, 0.045
],
unsharpen: [
-1, -1, -1,
-1, 9, -1,
-1, -1, -1
],
emboss: [
-2, -1, 0,
-1, 1, 1,
0, 1, 2
]
};
// List of effects to apply.
var effectsToApply = [
"gaussianBlur",
"emboss",
"gaussianBlur",
"unsharpen"
];
و در آخر بیایید هر کدام را اعمال کنیم، پینگ پنگ که بافتی را که ما نیز در حال رندر کردن هستیم
// start with the original image
gl.bindTexture(gl.TEXTURE_2D, originalImageTexture);
// don't y flip images while drawing to the textures
gl.uniform1f(flipYLocation, 1);
// loop through each effect we want to apply.
for (var ii = 0; ii < effectsToApply.length; ++ii) {
// Setup to draw into one of the framebuffers.
setFramebuffer(framebuffers[ii % 2], image.width, image.height);
drawWithKernel(effectsToApply[ii]);
// for the next draw, use the texture we just rendered to.
gl.bindTexture(gl.TEXTURE_2D, textures[ii % 2]);
}
// finally draw the result to the canvas.
gl.uniform1f(flipYLocation, -1); // need to y flip for canvas
setFramebuffer(null, canvas.width, canvas.height);
drawWithKernel("normal");
function setFramebuffer(fbo, width, height) {
// make this the framebuffer we are rendering to.
gl.bindFramebuffer(gl.FRAMEBUFFER, fbo);
// Tell the shader the resolution of the framebuffer.
gl.uniform2f(resolutionLocation, width, height);
// Tell webgl the viewport setting needed for framebuffer.
gl.viewport(0, 0, width, height);
}
function drawWithKernel(name) {
// set the kernel
gl.uniform1fv(kernelLocation, kernels[name]);
// Draw the rectangle.
gl.drawArrays(gl.TRIANGLES, 0, 6);
}
بعضی چیزها را باید مرور کنم
فراخوانی gl.bindFramebuffer
با null
به WebGL میگوید که میخواهید بهجای یکی از فریمبافرهای خود، روی بوم رندر کنید. WebGL باید از فضای کلیپ به پیکسل تبدیل شود. این کار را بر اساس تنظیمات gl.viewport
انجام می دهد. هنگامی که WebGL را مقداردهی اولیه می کنیم، تنظیمات gl.viewport
به طور پیش فرض به اندازه بوم است. از آنجایی که فریمبافرهایی که ما در آنها رندر میکنیم اندازههای متفاوتی دارند، پس بوم باید نمای پورت را به درستی تنظیم کنیم. در نهایت در مثالهای بنیادی WebGL، مختصات Y را هنگام رندر برگردانیدیم، زیرا WebGL بوم را با 0.0 نشان میدهد که در گوشه سمت چپ پایین به جای سنتیتر برای دو بعدی بالا سمت چپ است. در هنگام رندر کردن به فریم بافر به آن نیازی نیست. از آنجایی که فریم بافر هرگز نمایش داده نمی شود، قسمت بالا و پایین آن بی ربط است. تنها چیزی که اهمیت دارد این است که پیکسل 0.0 در فریم بافر با 0.0 در محاسبات ما مطابقت دارد. برای مقابله با این موضوع، با افزودن یک ورودی دیگر به سایهزن، امکان تنظیم اینکه آیا فلیپ شود یا نه، امکان پذیر شد.
<script id="2d-vertex-shader" type="x-shader/x-vertex">
...
uniform float u_flipY;
...
void main() {
...
gl_Position = vec4(clipSpace * vec2(1, u_flipY), 0, 1);
...
}
</script>
و سپس می توانیم آن را هنگام رندر کردن با آن تنظیم کنیم
...
var flipYLocation = gl.getUniformLocation(program, "u_flipY");
...
// don't flip
gl.uniform1f(flipYLocation, 1);
...
// flip
gl.uniform1f(flipYLocation, -1);
من این مثال را با استفاده از یک برنامه GLSL ساده نگه داشتم که می تواند چندین اثر را به دست آورد. اگر میخواهید پردازش تصویر را به طور کامل انجام دهید، احتمالاً به برنامههای GLSL زیادی نیاز دارید. برنامه ای برای تنظیم رنگ، اشباع و درخشندگی. دیگری برای روشنایی و کنتراست. یکی برای معکوس کردن، دیگری برای تنظیم سطوح و غیره. شما باید کد را تغییر دهید تا برنامه های GLSL را تغییر دهید و پارامترهای آن برنامه خاص را به روز کنید. من قصد داشتم آن مثال را بنویسم، اما این تمرینی است که بهتر است به خواننده واگذار شود، زیرا برنامههای متعدد GLSL هر کدام با پارامترهای خاص خود احتمالاً به معنای اصلاح اساسی برای جلوگیری از تبدیل شدن به یک آشغال بزرگ اسپاگتی است. امیدوارم این و مثالهای قبلی باعث شده باشد که WebGL کمی قابل دسترستر به نظر برسد و امیدوارم شروع با دوبعدی کمک کند تا WebGL کمی درک شود. اگر وقت پیدا کنم، سعی می کنم چند مقاله دیگر در مورد نحوه انجام سه بعدی و همچنین جزئیات بیشتر در مورد اینکه WebGL واقعاً در زیر کاپوت چه می کند بنویسم.
WebGL و آلفا
من متوجه شده ام که برخی از توسعه دهندگان OpenGL با نحوه برخورد WebGL با آلفا در بافر پشتی (به عنوان مثال، بوم) مشکل دارند، بنابراین فکر کردم شاید خوب باشد که برخی از تفاوت های WebGL و OpenGL مربوط به آلفا را مرور کنم.
بزرگترین تفاوت بین OpenGL و WebGL این است که OpenGL به یک بافر پشتی ارائه می شود که با هیچ چیزی ترکیب نشده است، یا عملاً توسط مدیر پنجره سیستم عامل با هیچ چیز ترکیب نشده است، بنابراین مهم نیست که آلفای شما چیست. WebGL توسط مرورگر با صفحه وب ترکیب میشود و پیشفرض استفاده از آلفای از پیش ضرب شده مانند تگهای .png <img>
با شفافیت و برچسبهای بوم 2 بعدی است. WebGL راه های مختلفی برای شبیه سازی OpenGL دارد.
#1) به WebGL بگویید که می خواهید آن را با آلفای غیرقبل ضرب شده ترکیب کنید
gl = canvas.getContext("experimental-webgl", {premultipliedAlpha: false});
پیش فرض درست است. البته نتیجه همچنان روی صفحه با هر رنگ پسزمینهای که در زیر بوم قرار میگیرد ترکیب میشود (رنگ پسزمینه بوم، رنگ پسزمینه ظرف بوم، رنگ پسزمینه صفحه، موارد پشت بوم اگر بوم دارای شاخص z باشد. > 0 و غیره...) به عبارت دیگر، رنگ CSS برای آن ناحیه از صفحه وب تعریف می کند. من واقعاً راه خوبی برای یافتن اینکه آیا مشکل آلفا دارید این است که پسزمینه بوم را روی رنگ روشنی مانند قرمز تنظیم کنید. بلافاصله خواهید دید که چه اتفاقی می افتد.
<canvas style="background: red;"></canvas>
همچنین می توانید آن را روی مشکی تنظیم کنید که هر گونه مشکل آلفای شما را پنهان می کند.
#2) به WebGL بگویید که آلفا را در بافر پشتیبان نمی خواهید
gl = canvas.getContext("experimental-webgl", {alpha: false});
این باعث می شود که بیشتر شبیه OpenGL عمل کند زیرا بافر پشتی فقط RGB خواهد داشت. این احتمالاً بهترین گزینه است زیرا یک مرورگر خوب می تواند ببیند که شما آلفا ندارید و در واقع نحوه ترکیب WebGL را بهینه می کند. البته این بدان معناست که در واقع آلفا در بافر پشتی وجود نخواهد داشت، بنابراین اگر از آلفا در بافر پشتیبان برای اهدافی استفاده می کنید که ممکن است برای شما کارساز نباشد. تعداد کمی از برنامه هایی که من می شناسم از آلفا در پشت بافر استفاده می کنند. من فکر می کنم احتمالاً این باید پیش فرض باشد.
شماره 3) آلفا را در پایان رندر خود پاک کنید
..
renderScene();
..
// Set the backbuffer's alpha to 1.0
gl.clearColor(1, 1, 1, 1);
gl.colorMask(false, false, false, true);
gl.clear(gl.COLOR_BUFFER_BIT);
پاک کردن به طور کلی بسیار سریع است، زیرا یک مورد خاص برای آن در اکثر سخت افزارها وجود دارد. من این کار را در اکثر دموهای خود انجام دادم. اگر باهوش بودم به روش شماره 2 در بالا تغییر می کردم. شاید بلافاصله پس از ارسال این مطلب، این کار را انجام دهم. به نظر می رسد که اکثر کتابخانه های WebGL باید به طور پیش فرض از این روش استفاده کنند. آن معدود توسعهدهندگانی که در واقع از آلفا برای ترکیب افکتها استفاده میکنند، میتوانند آن را درخواست کنند. بقیه فقط بهترین عملکرد و کمترین سورپرایز را خواهند داشت.
#4) یک بار آلفا را پاک کنید و دیگر به آن رندر ندهید
// At init time. Clear the back buffer.
gl.clearColor(1,1,1,1);
gl.clear(gl.COLOR_BUFFER_BIT);
// Turn off rendering to alpha
gl.colorMask(true, true, true, false);
البته اگر به فریم بافرهای خود رندر میدهید، ممکن است لازم باشد رندر را مجدداً به حالت آلفا روشن کنید و وقتی به رندر روی بوم میروید دوباره آن را خاموش کنید.
5) مدیریت تصاویر
همچنین، اگر فایلهای PNG را با آلفا در بافتها بارگیری میکنید، پیشفرض این است که آلفای آنها از قبل ضرب شده است که معمولاً روشی نیست که اکثر بازیها کارها را انجام میدهند. اگر میخواهید از این رفتار جلوگیری کنید، باید به WebGL بگویید
gl.pixelStorei(gl.UNPACK_PREMULTIPLY_ALPHA_WEBGL, false);
#6) استفاده از یک معادله ترکیبی که با آلفای از پیش ضرب شده کار می کند
تقریباً تمام برنامههای OpenGL که من نوشتهام یا روی آنها کار کردهام، استفاده میکنند
gl.blendFunc(gl.SRC_ALPHA, gl_ONE_MINUS_SRC_ALPHA);
که برای بافت های آلفای از پیش ضرب نشده کار می کند. اگر واقعاً می خواهید با بافت های آلفای از پیش ضرب شده کار کنید، احتمالاً می خواهید
gl.blendFunc(gl.ONE, gl_ONE_MINUS_SRC_ALPHA);
اینها روشهایی هستند که من از آنها آگاهم. اگر چیزهای بیشتری می دانید لطفا آنها را در زیر پست کنید.