3.7 KiB
3.7 KiB
id, title, challengeType, forumTopicId, dashedName
id | title | challengeType | forumTopicId | dashedName |
---|---|---|---|---|
594faaab4e2a8626833e9c3d | Розбиття рядка на лексеми методом екранування | 5 | 302338 | tokenize-a-string-with-escaping |
--description--
Напишіть функцію або програму, що може поділити рядок кожного разу коли зустрічається не ізольований розділювач.
Вона має містити три вхідні параметри:
- рядок
- розділювач
- escape-символ
Вона має вивести список рядків.
Правила для розділення:
- Поля, розділені розділювачами, стають елементами вихідного списку.
- Пусті поля потрібно зберегти, навіть на початку та вкінці.
Правила для екранування:
- "Екранований" означає той, якому передує escape-символ, який ще не є екранованим.
- Якщо escape-символ передує символу, що немає спеціального значення, то він все ще вважається екранованим (але не робить нічого особливого).
- Кожна поява escape-символу, який використовувався для екранування чогось, не повинна стати частиною виводу.
Доведіть, що ваша функція задовольняє наступний тестовий приклад:
Дано рядок
один^|один||три^^^^|чотири^^^|^чотири|
і використовуючи |
як розділювач і ^
як escape-символ, ваша функція має вивести наступний масив:
['один|один', '', 'три^^', 'чотири^|чотири', '']
--hints--
tokenize
має бути функцією.
assert(typeof tokenize === 'function');
tokenize
має повернути масив.
assert(typeof tokenize('a', 'b', 'c') === 'object');
tokenize('one^|uno||three^^^^|four^^^|^cuatro|', '|', '^')
має повернути ['one|uno', '', 'three^^', 'four^|cuatro', '']
assert.deepEqual(tokenize(testStr1, '|', '^'), res1);
tokenize('a@&bcd&ef&&@@hi', '&', '@')
має повернути ['a&bcd', 'ef', '', '@hi']
assert.deepEqual(tokenize(testStr2, '&', '@'), res2);
--seed--
--after-user-code--
const testStr1 = 'one^|uno||three^^^^|four^^^|^cuatro|';
const res1 = ['one|uno', '', 'three^^', 'four^|cuatro', ''];
// TODO add more tests
const testStr2 = 'a@&bcd&ef&&@@hi';
const res2 = ['a&bcd', 'ef', '', '@hi'];
--seed-contents--
function tokenize(str, sep, esc) {
return true;
}
--solutions--
// tokenize :: String -> Character -> Character -> [String]
function tokenize(str, charDelim, charEsc) {
const dctParse = str.split('')
.reduce((a, x) => {
const blnEsc = a.esc;
const blnBreak = !blnEsc && x === charDelim;
const blnEscChar = !blnEsc && x === charEsc;
return {
esc: blnEscChar,
token: blnBreak ? '' : (
a.token + (blnEscChar ? '' : x)
),
list: a.list.concat(blnBreak ? a.token : [])
};
}, {
esc: false,
token: '',
list: []
});
return dctParse.list.concat(
dctParse.token
);
}