private static bool TryMakeLongOperator(LexerData data, char c) { // item 154 char previous = data.Buffer[0]; char[] chars = { previous, c }; string text = new String(chars); // item 155 if (LongOperators.Contains(text)) { // item 158 data.Buffer.Length = 0; Token token = new Token(text, TokenType.Operator); data.Tokens.Add(token); // item 159 return true; } else { // item 160 return false; } }
private bool TryMakeLongOperator(char c) { // item 154 char previous = _buffer[0]; char[] chars = { previous, c }; string text = new String(chars); // item 155 if (_longOperators.Contains(text)) { // item 158 _buffer.Length = 0; Token token = new Token(text, TokenType.Operator); _tokens.Add(token); // item 159 return true; } else { // item 160 return false; } }
private static void CreateToken(LexerData data, TokenType type) { // item 132 if (data.Buffer.Length == 0) { } else { // item 135 string text = data.Buffer.ToString(); data.Buffer.Length = 0; // item 136 Token token = new Token(text, type); data.Tokens.Add(token); } }
private void CreateToken(TokenType type) { // item 132 if (_buffer.Length == 0) { } else { // item 135 string text = _buffer.ToString(); _buffer.Length = 0; // item 136 Token token = new Token(text, type); _tokens.Add(token); } }