去年用vc给客户开发了一套基于pdf文档的数字图书馆,界面显示都是古汉语,要求支持unicode5.0标准,在页面上能显示7万多汉字,包括四字节汉字,终于在费了九牛二虎之力后在中文操作系统下没有任何问题。
今年客户要卖给日本用户 ,因为编程用的好多技术都来源于原来的一个开发项目,基于多字节的编码,也就是本地编码,在日文系统下显示汉字就成了乱码。在日文系统下把语言环境修改成中文就没有任何问题,但是日本人不愿意。
怎么解决这个问题,把程序的编码转换成unicode编码,是一个办法,但是非常麻烦,包括加密系统在内的都要转换,绝对是一个杯具了。在网上查询后,有价值的资料不多。经过自己的多次试验终于解决了这个问题,现在拿出来跟大家分享一下,如果碰到与我有同样困扰的朋友,相信还是有参考价值的。
我的解决思路是,将软件中需要显示的中文转成UTF-8编码,然后再转Unicode编码,用unicode编码再转为系统的本地编码,非常简单,原来的程序几乎不需要修改多少,就把问题解决了。
转换代码想必大家应该比较熟悉了,就是用API函数 MultiByteToWideChar了。
// UTF8转换为Unicode字符串,再转本地字符串
//szchar待转换的汉字的utf-8编码字符串
//wszUniCode 转换后的Unicode编码字符串
CString CDemoView::UTF8ToUni(char* szchar)
{
//先计算转换后的unicode字符串的长度
int len;
len = MultiByteToWideChar(CP_UTF8, 0, szchar, -1, NULL,0);
// 分配Unicode字符串缓冲区,并赋0
wchar_t* wszUniCode = new wchar_t[len+1];
memset(wszUniCode, 0, len * 2 + 2);
// 转换过程
MultiByteToWideChar(CP_UTF8, 0, szchar, -1, wszUniCode, len);
//本地化
CString str(wszUniCode);
delete[] wszUniCode;
return str;
}
代码很简单,主要是提供一种解决思路。