Ogre坐标系,向量之间的转换

xiaoxiao2021-02-28  73

原文地址:Ogre坐标系,向量之间的转换 作者:zhouwenjie

坐标系:OGRE跟其它的图形引擎一样使用x,z来表示水平平面, 用y来表示垂直方向.面对你的显示器,x轴是从左到右,右边是正方向;y轴是从下到上,上方是正方向;z轴是从里向外,外面是正方向.

OGRE是用向量类来表示位置跟方向的,Vector2,Vector3,Vector4是OGRE中定义的三种向量,然而我们最常使用的是Vector3.

void setDirection(x, y, z); 设定方向 Vector3 getDirection(); 获得方向 Vector3 getUp(); 获得向上的向量 Vector3 getRight();获得向右的向量 void lookAt(x, y, z); 朝向某一点 void yaw(Real yaw); void roll( Real roll), void pitch(Real pitch); void rotate(Vector3 &axis, Real degree); void setAutoTracking(bool bEnabled, SceneNode *target = 0, const Vector3 &offset);

const Matrix& getProjectionMatrixRS() const;   //RS表示RenderSystem,该函数将根据当前的渲染系统来决定返回的投影矩阵(左手或右手坐标系). const Matrix& getProjectionMatrixWithRSDepth() const;// 这个将返回ogre本地格式的矩阵(右手坐标系的).但它的深度格式根据当前渲染系统决定深度范围是(-1,1)或者是(0,1). const Matrix& getProjectionMatrix() const; //这个不仅返回是ogre本地格式的矩阵(右手坐标系的),而且还保证深度范围(-1,1). {没有RS,不受渲染系统影响...}???

const Matrix& getViewMatrix() const;

因为支持多视口渲染(view port),OGRE为多视口维护了Z-ORDER, 根据Z-ORDER的不同来决定对相覆盖的视口的遮挡.

需要注意的是,即使被遮挡的部分每帧也是被渲染的,应考虑其代价. Viewport *vpFront, *vpBack; vpBack= window->addViewport(camera, 0); //默认为整个客户区大小 vpFront = window->addViewport(camera, 1, 0.0, 0.0, 0.5, 0.5); //左上角四分之一大小,叠在vpFront前面.

vpBack->setBackgroundColour(ColourValue(1.0f, 0.0f, 0.0)); vpFront->setBackgroundColour(ColourValue::Red));

//设置每帧是否自动清除缓冲 vpBack->setClearEveryFrame(true, FBT_COLOUR | FBT_DEPTH); vpFront->setClearEveryFrame(false);

OGRE的2D坐标、CEGUI坐标、鼠标坐标

屏幕坐标系:左上角为(0, 0)右下角为(1, 1)

OGRE的2D坐标系:左上角为(-1, 1)右下角为(1, -1)

CEGUI坐标系:左上角为(0, 0),单位像素

转换公式(鼠标坐标=>OGRE的2D坐标)

void setCorners(float left, float top, float right, float bottom)

{

    left = left * 2 - 1;     right = right * 2 - 1;     top = 1 - top * 2;     bottom = 1 - bottom * 2; }

对于根据鼠标位置来产生射线:

bool mousePressed(const OIS::MouseEvent &arg, OIS::MouseButtonID id)

{

...

    CEGUI::Point mousePos = CEGUI::MouseCursor::getSingleton().getPosition();     Ray mouseRay = mCamera->getCameraToViewportRay(mousePos.d_x/float(arg.state.width), mousePos.d_y/float(arg.state.height));

... }

其中函数

Ray getCameraToViewportRay(Real x, Real y) const;

// x and y are in “normalized” (0.0 to 1.0) screen coordinates

其中两个参数是对屏幕坐标系来说的,

所以

x = mousePos.d_x / float(arg.state.width)

y = mousePos.d_y / float(arg.state.height)

 

arg.state.width是渲染窗口的宽单位为像素

arg.state.height是渲染窗口的高单位为像素

mousePos.d_x是鼠标所在位置到渲染窗口左边界的距离单位为像素

mousePos.d_y是鼠标所在位置到渲染窗口上边界的距离单位为像素

本文来自博客,转载请标明出处:http://blog.csdn.net/kamaliang/archive/2009/03/05/3959282.aspx

转载请注明原文地址: https://www.6miu.com/read-32361.html

最新回复(0)