La tokenización es el proceso de reemplazar datos confidenciales con símbolos de identificación únicos que retienen toda la información esencial sobre los datos sin comprometer su seguridad.
Tokenitation
« Back to Glossary Index