type golang.org/x/net/html.Tokenizer

32 uses

	golang.org/x/net/html (current package)
		parse.go#L20: 	tokenizer *Tokenizer
		token.go#L127: type Tokenizer struct {
		token.go#L188: func (z *Tokenizer) AllowCDATA(allowCDATA bool) {
		token.go#L216: func (z *Tokenizer) NextIsNotRawText() {
		token.go#L222: func (z *Tokenizer) Err() error {
		token.go#L234: func (z *Tokenizer) readByte() byte {
		token.go#L290: func (z *Tokenizer) Buffered() []byte {
		token.go#L307: func (z *Tokenizer) skipWhiteSpace() {
		token.go#L328: func (z *Tokenizer) readRawOrRCDATA() {
		token.go#L366: func (z *Tokenizer) readRawEndTag() bool {
		token.go#L393: func (z *Tokenizer) readScript() {
		token.go#L600: func (z *Tokenizer) readComment() {
		token.go#L645: func (z *Tokenizer) readUntilCloseAngle() {
		token.go#L663: func (z *Tokenizer) readMarkupDeclaration() TokenType {
		token.go#L692: func (z *Tokenizer) readDoctype() bool {
		token.go#L717: func (z *Tokenizer) readCDATA() bool {
		token.go#L756: func (z *Tokenizer) startTagIn(ss ...string) bool {
		token.go#L778: func (z *Tokenizer) readStartTag() TokenType {
		token.go#L816: func (z *Tokenizer) readTag(saveAttr bool) {
		token.go#L845: func (z *Tokenizer) readTagName() {
		token.go#L867: func (z *Tokenizer) readTagAttrKey() {
		token.go#L888: func (z *Tokenizer) readTagAttrVal() {
		token.go#L950: func (z *Tokenizer) Next() TokenType {
		token.go#L1075: func (z *Tokenizer) Raw() []byte {
		token.go#L1118: func (z *Tokenizer) Text() []byte {
		token.go#L1139: func (z *Tokenizer) TagName() (name []byte, hasAttr bool) {
		token.go#L1155: func (z *Tokenizer) TagAttr() (key, val []byte, moreAttr bool) {
		token.go#L1171: func (z *Tokenizer) Token() Token {
		token.go#L1194: func (z *Tokenizer) SetMaxBuf(n int) {
		token.go#L1200: func NewTokenizer(r io.Reader) *Tokenizer {
		token.go#L1212: func NewTokenizerFragment(r io.Reader, contextTag string) *Tokenizer {
		token.go#L1213: 	z := &Tokenizer{