wake-up-neo.com

Wie drucke ich Unicode-Zeichen in C++?

Ich versuche, ein russisches Zeichen "ф" ( U + 0444 CYRILLIC SMALL LETTER EF) zu drucken, das einen Dezimalcode 1092 erhält. Wie kann ich dieses Zeichen in C++ ausdrucken? Ich hätte gedacht, dass etwas in der Art des Folgenden funktionieren würde, aber ...

int main (){
   wchar_t f = '1060';
   cout << f << endl;
}
43
JAM

Um das Zeichen darzustellen, können Sie Universal Character Names (UCNs) verwenden. Das Zeichen 'ф' hat den Unicode-Wert U + 0444. In C++ könnten Sie also '\ u0444' oder '\ U00000444' schreiben. Auch wenn die Quellcodierung dieses Zeichen unterstützt, können Sie es einfach in Ihren Quellcode schreiben.

// both of these assume that the character can be represented with
// a single char in the execution encoding
char b = '\u0444';
char a = 'ф'; // this line additionally assumes that the source character encoding supports this character

Das Drucken solcher Zeichen hängt davon ab, worauf Sie drucken. Wenn Sie auf einem Unix-Terminalemulator drucken, verwendet der Terminalemulator eine Codierung, die dieses Zeichen unterstützt, und diese Codierung stimmt mit der Ausführungscodierung des Compilers überein. Sie haben dann folgende Möglichkeiten:

#include <iostream>

int main() {
    std::cout << "Hello, ф or \u0444!\n";
}

Dieses Programm macht nicht erfordert, dass 'n' in einem einzelnen Zeichen dargestellt werden kann. Unter OS X und den meisten modernen Linux-Installationen wird dies problemlos funktionieren, da die Quell-, Ausführungs- und Konsolenkodierungen alle UTF-8 sind (was alle Unicode-Zeichen unterstützt).

Mit Windows ist es schwieriger und es gibt unterschiedliche Möglichkeiten mit unterschiedlichen Kompromissen.

Wenn Sie keinen portablen Code benötigen (Sie werden wchar_t verwenden, was auf jeder anderen Plattform unbedingt vermieden werden sollte), ist es wahrscheinlich am besten, den Modus des Ausgabedateihandles so einzustellen, dass nur UTF-16-Daten verwendet werden.

#include <iostream>
#include <io.h>
#include <fcntl.h>

int main() {
    _setmode(_fileno(stdout), _O_U16TEXT);
    std::wcout << L"Hello, \u0444!\n";
}

Portable Code ist schwieriger.

47
bames53

Beim Kompilieren mit -std=c++11 kann man das einfach tun

  const char *s  = u8"\u0444";
  cout << s << endl;
10
JAM

Letztendlich ist dies vollständig plattformabhängig. Unicode-Unterstützung ist in Standard C++ leider sehr schlecht. Für GCC müssen Sie eine schmale Zeichenfolge festlegen, da UTF-8 verwendet wird. Windows möchte eine breite Zeichenfolge und Sie müssen die Ausgabe in wcout vornehmen.

// GCC
std::cout << "ф";
// Windoze
wcout << L"ф";
10
Puppy

Wenn Sie Windows verwenden (beachten Sie, wir verwenden printf (), nicht cout)

//Save As UTF8 without signature
#include <stdio.h>
#include<windows.h>
int main (){
    SetConsoleOutputCP(65001); 
    printf("ф\n");
}

Nicht Unicode, aber funktionsfähig - 1251 statt UTF8:

//Save As Windows 1251
#include <iostream>
#include<windows.h>
using namespace std;
int main (){
    SetConsoleOutputCP(1251); 
    cout << "ф" << endl;
}
6
vladasimovic

'1060' besteht aus vier Zeichen und wird unter dem Standard nicht kompiliert. Sie sollten das Zeichen einfach als Zahl behandeln, wenn Ihre breiten Zeichen mit Unicode 1: 1 übereinstimmen (überprüfen Sie die Ländereinstellungen).

int main (){
    wchar_t f = 1060;
    wcout << f << endl;
}
3
Mike DeSimone

Dieser Code funktioniert unter Linux (C++ 11, Geany, G ++ 7.4.0):

#include <iostream>

using namespace std;


int utf8_to_unicode(string utf8_code);
string unicode_to_utf8(int unicode);


int main()
{
    cout << unicode_to_utf8(36) << '\t';
    cout << unicode_to_utf8(162) << '\t';
    cout << unicode_to_utf8(8364) << '\t';
    cout << unicode_to_utf8(128578) << endl;

    cout << unicode_to_utf8(0x24) << '\t';
    cout << unicode_to_utf8(0xa2) << '\t';
    cout << unicode_to_utf8(0x20ac) << '\t';
    cout << unicode_to_utf8(0x1f642) << endl;

    cout << utf8_to_unicode("$") << '\t';
    cout << utf8_to_unicode("¢") << '\t';
    cout << utf8_to_unicode("€") << '\t';
    cout << utf8_to_unicode("????") << endl;

    cout << utf8_to_unicode("\x24") << '\t';
    cout << utf8_to_unicode("\xc2\xa2") << '\t';
    cout << utf8_to_unicode("\xe2\x82\xac") << '\t';
    cout << utf8_to_unicode("\xf0\x9f\x99\x82") << endl;

    return 0;
}


int utf8_to_unicode(string utf8_code)
{
    unsigned utf8_size = utf8_code.length();
    int unicode = 0;

    for (unsigned p=0; p<utf8_size; ++p)
    {
        int bit_count = (p? 6: 8 - utf8_size - (utf8_size == 1? 0: 1)),
            shift = (p < utf8_size - 1? (6*(utf8_size - p - 1)): 0);

        for (int k=0; k<bit_count; ++k)
            unicode += ((utf8_code[p] & (1 << k)) << shift);
    }

    return unicode;
}


string unicode_to_utf8(int unicode)
{
    string s;

    if (unicode>=0 and unicode <= 0x7f)  // 7F(16) = 127(10)
    {
        s = static_cast<char>(unicode);

        return s;
    }
    else if (unicode <= 0x7ff)  // 7FF(16) = 2047(10)
    {
        unsigned char c1 = 192, c2 = 128;

        for (int k=0; k<11; ++k)
        {
            if (k < 6)  c2 |= (unicode % 64) & (1 << k);
            else c1 |= (unicode >> 6) & (1 << (k - 6));
        }

        s = c1;    s += c2;

        return s;
    }
    else if (unicode <= 0xffff)  // FFFF(16) = 65535(10)
    {
        unsigned char c1 = 224, c2 = 128, c3 = 128;

        for (int k=0; k<16; ++k)
        {
            if (k < 6)  c3 |= (unicode % 64) & (1 << k);
            else if (k < 12) c2 |= (unicode >> 6) & (1 << (k - 6));
            else c1 |= (unicode >> 12) & (1 << (k - 12));
        }

        s = c1;    s += c2;    s += c3;

        return s;
    }
    else if (unicode <= 0x1fffff)  // 1FFFFF(16) = 2097151(10)
    {
        unsigned char c1 = 240, c2 = 128, c3 = 128, c4 = 128;

        for (int k=0; k<21; ++k)
        {
            if (k < 6)  c4 |= (unicode % 64) & (1 << k);
            else if (k < 12) c3 |= (unicode >> 6) & (1 << (k - 6));
            else if (k < 18) c2 |= (unicode >> 12) & (1 << (k - 12));
            else c1 |= (unicode >> 18) & (1 << (k - 18));
        }

        s = c1;    s += c2;    s += c3;    s += c4;

        return s;
    }
    else if (unicode <= 0x3ffffff)  // 3FFFFFF(16) = 67108863(10)
    {
        ;  // actually, there are no 5-bytes unicodes
    }
    else if (unicode <= 0x7fffffff)  // 7FFFFFFF(16) = 2147483647(10)
    {
        ;  // actually, there are no 6-bytes unicodes
    }
    else  ;  // incorrect unicode (< 0 or > 2147483647)

    return "";
}

Mehr:

1
Iro

Ich musste die Zeichenfolge in der Benutzeroberfläche anzeigen und in einer XML-Konfigurationsdatei speichern. Das oben angegebene Format ist für String in C++ geeignet. Ich würde hinzufügen, dass wir den XML-kompatiblen String für das Sonderzeichen haben können, indem Sie "\ u" durch "& # x" ersetzen und ein ";" Am Ende.

Zum Beispiel: C++: "\ u0444" -> XML: "&#x0444;"

0
MGR

Eine andere Lösung in Linux:

string a = "Ф";
cout << "Ф = \xd0\xa4 = " << hex
     << int(static_cast<unsigned char>(a[0]))
     << int(static_cast<unsigned char>(a[1])) << " (" << a.length() << "B)" << endl;

string b = "√";
cout << "√ = \xe2\x88\x9a = " << hex
     << int(static_cast<unsigned char>(b[0]))
     << int(static_cast<unsigned char>(b[1]))
     << int(static_cast<unsigned char>(b[2])) << " (" << b.length() << "B)" << endl;
0
VoyciecH

In Linux kann ich einfach Folgendes tun:

std::cout << "ф";

Ich habe gerade eingefügte Zeichen aus hier eingefügt, und es versagte zumindest bei der Stichprobe, die ich anprobierte, nicht.

0
quanta