mirror of
https://github.com/catdevnull/preciazo.git
synced 2024-11-26 03:26:19 +00:00
sepa-precios-importer
This commit is contained in:
parent
93b2f8c1a1
commit
213cd832b7
6 changed files with 392 additions and 0 deletions
175
sepa-precios-importer/.gitignore
vendored
Normal file
175
sepa-precios-importer/.gitignore
vendored
Normal file
|
@ -0,0 +1,175 @@
|
||||||
|
# Based on https://raw.githubusercontent.com/github/gitignore/main/Node.gitignore
|
||||||
|
|
||||||
|
# Logs
|
||||||
|
|
||||||
|
logs
|
||||||
|
_.log
|
||||||
|
npm-debug.log_
|
||||||
|
yarn-debug.log*
|
||||||
|
yarn-error.log*
|
||||||
|
lerna-debug.log*
|
||||||
|
.pnpm-debug.log*
|
||||||
|
|
||||||
|
# Caches
|
||||||
|
|
||||||
|
.cache
|
||||||
|
|
||||||
|
# Diagnostic reports (https://nodejs.org/api/report.html)
|
||||||
|
|
||||||
|
report.[0-9]_.[0-9]_.[0-9]_.[0-9]_.json
|
||||||
|
|
||||||
|
# Runtime data
|
||||||
|
|
||||||
|
pids
|
||||||
|
_.pid
|
||||||
|
_.seed
|
||||||
|
*.pid.lock
|
||||||
|
|
||||||
|
# Directory for instrumented libs generated by jscoverage/JSCover
|
||||||
|
|
||||||
|
lib-cov
|
||||||
|
|
||||||
|
# Coverage directory used by tools like istanbul
|
||||||
|
|
||||||
|
coverage
|
||||||
|
*.lcov
|
||||||
|
|
||||||
|
# nyc test coverage
|
||||||
|
|
||||||
|
.nyc_output
|
||||||
|
|
||||||
|
# Grunt intermediate storage (https://gruntjs.com/creating-plugins#storing-task-files)
|
||||||
|
|
||||||
|
.grunt
|
||||||
|
|
||||||
|
# Bower dependency directory (https://bower.io/)
|
||||||
|
|
||||||
|
bower_components
|
||||||
|
|
||||||
|
# node-waf configuration
|
||||||
|
|
||||||
|
.lock-wscript
|
||||||
|
|
||||||
|
# Compiled binary addons (https://nodejs.org/api/addons.html)
|
||||||
|
|
||||||
|
build/Release
|
||||||
|
|
||||||
|
# Dependency directories
|
||||||
|
|
||||||
|
node_modules/
|
||||||
|
jspm_packages/
|
||||||
|
|
||||||
|
# Snowpack dependency directory (https://snowpack.dev/)
|
||||||
|
|
||||||
|
web_modules/
|
||||||
|
|
||||||
|
# TypeScript cache
|
||||||
|
|
||||||
|
*.tsbuildinfo
|
||||||
|
|
||||||
|
# Optional npm cache directory
|
||||||
|
|
||||||
|
.npm
|
||||||
|
|
||||||
|
# Optional eslint cache
|
||||||
|
|
||||||
|
.eslintcache
|
||||||
|
|
||||||
|
# Optional stylelint cache
|
||||||
|
|
||||||
|
.stylelintcache
|
||||||
|
|
||||||
|
# Microbundle cache
|
||||||
|
|
||||||
|
.rpt2_cache/
|
||||||
|
.rts2_cache_cjs/
|
||||||
|
.rts2_cache_es/
|
||||||
|
.rts2_cache_umd/
|
||||||
|
|
||||||
|
# Optional REPL history
|
||||||
|
|
||||||
|
.node_repl_history
|
||||||
|
|
||||||
|
# Output of 'npm pack'
|
||||||
|
|
||||||
|
*.tgz
|
||||||
|
|
||||||
|
# Yarn Integrity file
|
||||||
|
|
||||||
|
.yarn-integrity
|
||||||
|
|
||||||
|
# dotenv environment variable files
|
||||||
|
|
||||||
|
.env
|
||||||
|
.env.development.local
|
||||||
|
.env.test.local
|
||||||
|
.env.production.local
|
||||||
|
.env.local
|
||||||
|
|
||||||
|
# parcel-bundler cache (https://parceljs.org/)
|
||||||
|
|
||||||
|
.parcel-cache
|
||||||
|
|
||||||
|
# Next.js build output
|
||||||
|
|
||||||
|
.next
|
||||||
|
out
|
||||||
|
|
||||||
|
# Nuxt.js build / generate output
|
||||||
|
|
||||||
|
.nuxt
|
||||||
|
dist
|
||||||
|
|
||||||
|
# Gatsby files
|
||||||
|
|
||||||
|
# Comment in the public line in if your project uses Gatsby and not Next.js
|
||||||
|
|
||||||
|
# https://nextjs.org/blog/next-9-1#public-directory-support
|
||||||
|
|
||||||
|
# public
|
||||||
|
|
||||||
|
# vuepress build output
|
||||||
|
|
||||||
|
.vuepress/dist
|
||||||
|
|
||||||
|
# vuepress v2.x temp and cache directory
|
||||||
|
|
||||||
|
.temp
|
||||||
|
|
||||||
|
# Docusaurus cache and generated files
|
||||||
|
|
||||||
|
.docusaurus
|
||||||
|
|
||||||
|
# Serverless directories
|
||||||
|
|
||||||
|
.serverless/
|
||||||
|
|
||||||
|
# FuseBox cache
|
||||||
|
|
||||||
|
.fusebox/
|
||||||
|
|
||||||
|
# DynamoDB Local files
|
||||||
|
|
||||||
|
.dynamodb/
|
||||||
|
|
||||||
|
# TernJS port file
|
||||||
|
|
||||||
|
.tern-port
|
||||||
|
|
||||||
|
# Stores VSCode versions used for testing VSCode extensions
|
||||||
|
|
||||||
|
.vscode-test
|
||||||
|
|
||||||
|
# yarn v2
|
||||||
|
|
||||||
|
.yarn/cache
|
||||||
|
.yarn/unplugged
|
||||||
|
.yarn/build-state.yml
|
||||||
|
.yarn/install-state.gz
|
||||||
|
.pnp.*
|
||||||
|
|
||||||
|
# IntelliJ based IDEs
|
||||||
|
.idea
|
||||||
|
|
||||||
|
# Finder (MacOS) folder config
|
||||||
|
.DS_Store
|
14
sepa-precios-importer/README.md
Normal file
14
sepa-precios-importer/README.md
Normal file
|
@ -0,0 +1,14 @@
|
||||||
|
# sepa-precios-importer
|
||||||
|
|
||||||
|
Importador de [datasets de precios de SEPA](https://datos.produccion.gob.ar/dataset/sepa-precios/archivo/d076720f-a7f0-4af8-b1d6-1b99d5a90c14) a una base de datos PostgreSQL.
|
||||||
|
|
||||||
|
Vease [Errores en el formato de los datos SEPA](https://gist.github.com/catdevnull/587d5c63c4bab11b9798861c917db93b)
|
||||||
|
|
||||||
|
To install dependencies:
|
||||||
|
|
||||||
|
```bash
|
||||||
|
bun install
|
||||||
|
bun run index.ts ~/carpeta-con-datasets-descomprimidos
|
||||||
|
```
|
||||||
|
|
||||||
|
This project was created using `bun init` in bun v1.1.26. [Bun](https://bun.sh) is a fast all-in-one JavaScript runtime.
|
BIN
sepa-precios-importer/bun.lockb
Executable file
BIN
sepa-precios-importer/bun.lockb
Executable file
Binary file not shown.
159
sepa-precios-importer/index.ts
Normal file
159
sepa-precios-importer/index.ts
Normal file
|
@ -0,0 +1,159 @@
|
||||||
|
import { readFile } from "fs/promises";
|
||||||
|
import Papa from "papaparse";
|
||||||
|
import { basename, join, dirname } from "path";
|
||||||
|
import postgres from "postgres";
|
||||||
|
import { Readable } from "stream";
|
||||||
|
import { pipeline } from "node:stream/promises";
|
||||||
|
import { Glob } from "bun";
|
||||||
|
|
||||||
|
const sql = postgres({
|
||||||
|
database: "sepa-precios",
|
||||||
|
});
|
||||||
|
|
||||||
|
// await sql`
|
||||||
|
// drop table if exists precios;`;
|
||||||
|
// await sql`
|
||||||
|
// drop table if exists datasets;`;
|
||||||
|
await sql`
|
||||||
|
CREATE TABLE if not exists datasets (
|
||||||
|
id SERIAL PRIMARY KEY,
|
||||||
|
name TEXT UNIQUE,
|
||||||
|
date DATE
|
||||||
|
);`;
|
||||||
|
await sql`
|
||||||
|
CREATE TABLE if not exists precios (
|
||||||
|
id_dataset INTEGER REFERENCES datasets(id),
|
||||||
|
id_comercio INTEGER,
|
||||||
|
id_bandera INTEGER,
|
||||||
|
id_sucursal INTEGER,
|
||||||
|
id_producto BIGINT,
|
||||||
|
productos_ean INTEGER,
|
||||||
|
productos_descripcion TEXT,
|
||||||
|
productos_cantidad_presentacion NUMERIC(10, 2),
|
||||||
|
productos_unidad_medida_presentacion TEXT,
|
||||||
|
productos_marca TEXT,
|
||||||
|
productos_precio_lista NUMERIC(10, 2),
|
||||||
|
productos_precio_referencia NUMERIC(10, 2),
|
||||||
|
productos_cantidad_referencia NUMERIC(10, 2),
|
||||||
|
productos_unidad_medida_referencia TEXT,
|
||||||
|
productos_precio_unitario_promo1 NUMERIC(10, 2),
|
||||||
|
productos_leyenda_promo1 TEXT,
|
||||||
|
productos_precio_unitario_promo2 NUMERIC(10, 2),
|
||||||
|
productos_leyenda_promo2 TEXT
|
||||||
|
);
|
||||||
|
`;
|
||||||
|
|
||||||
|
async function importDataset(dir: string) {
|
||||||
|
const date = basename(dir).match(/(\d{4}-\d{2}-\d{2})/)![1];
|
||||||
|
// TODO: parsear "Ultima actualizacion" al final del CSV y insertarlo en la tabla datasets
|
||||||
|
|
||||||
|
return await sql.begin(async () => {
|
||||||
|
let datasetId: number;
|
||||||
|
try {
|
||||||
|
const res =
|
||||||
|
await sql`insert into datasets (name, date) values (${basename(dir)}, ${date}) returning id`;
|
||||||
|
datasetId = res[0].id;
|
||||||
|
} catch (e) {
|
||||||
|
if ((e as any).code == "23505") {
|
||||||
|
console.log(`dataset ${basename(dir)} already exists`);
|
||||||
|
return;
|
||||||
|
}
|
||||||
|
throw e;
|
||||||
|
}
|
||||||
|
const datas: any[] = [];
|
||||||
|
|
||||||
|
const comercios: Papa.ParseResult<{ comercio_cuit: string }> = Papa.parse(
|
||||||
|
await readFile(join(dir, "comercio.csv"), "utf-8"),
|
||||||
|
{ header: true },
|
||||||
|
);
|
||||||
|
const comercioCuit = comercios.data[0].comercio_cuit;
|
||||||
|
console.log(`dataset ${datasetId}, comercio ${comercioCuit}`);
|
||||||
|
|
||||||
|
let file = await readFile(join(dir, "productos.csv"), "utf-8");
|
||||||
|
// WALL OF SHAME: estos proveedores no saben producir CSVs correctos
|
||||||
|
if (comercioCuit == "30612929455") {
|
||||||
|
// Libertad S.A.
|
||||||
|
file = file.replaceAll("|RAPTOR 6X16X45", "/RAPTOR 6X16X45");
|
||||||
|
} else if (comercioCuit == "30578411174") {
|
||||||
|
// Alberdi S.A.
|
||||||
|
file = file.replaceAll(";", "|");
|
||||||
|
}
|
||||||
|
if (["33504047089", "30707429468", "30589621499"].includes(comercioCuit)) {
|
||||||
|
// TODO: si tienen los valores, pero con otros nombres, por ejemplo
|
||||||
|
// productos_precio_lista seria precio_unitario_bulto_por_unidad_venta_con_iva.
|
||||||
|
// pero no quiero mentir, asi que por ahora no lo importo
|
||||||
|
console.error(
|
||||||
|
`No voy a importar el dataset ${dir} porque el formato está mal. Pero se podría importar. Pero por ahora no lo voy a hacer. Véase https://gist.github.com/catdevnull/587d5c63c4bab11b9798861c917db93b`,
|
||||||
|
);
|
||||||
|
return;
|
||||||
|
}
|
||||||
|
console.time("parse");
|
||||||
|
return await new Promise((resolve, reject) => {
|
||||||
|
Papa.parse(file, {
|
||||||
|
header: true,
|
||||||
|
step: function (result: any) {
|
||||||
|
const { data } = result;
|
||||||
|
if (
|
||||||
|
data.id_comercio &&
|
||||||
|
data.id_bandera &&
|
||||||
|
data.id_sucursal &&
|
||||||
|
data.id_producto
|
||||||
|
)
|
||||||
|
datas.push(data);
|
||||||
|
},
|
||||||
|
complete: async function () {
|
||||||
|
try {
|
||||||
|
console.timeEnd("parse");
|
||||||
|
console.time("map");
|
||||||
|
const objs = datas.map((data) => {
|
||||||
|
delete data.id_dun_14;
|
||||||
|
return {
|
||||||
|
id_dataset: datasetId,
|
||||||
|
...data,
|
||||||
|
productos_descripcion: data.productos_descripcion.replaceAll(
|
||||||
|
"\t",
|
||||||
|
" ",
|
||||||
|
),
|
||||||
|
};
|
||||||
|
});
|
||||||
|
if (!objs.length) {
|
||||||
|
console.error(`No hay datos para el dataset ${dir}`);
|
||||||
|
return;
|
||||||
|
}
|
||||||
|
const keys = Object.keys(objs[0]);
|
||||||
|
const lines = Readable.from(
|
||||||
|
objs.map(
|
||||||
|
(data) => keys.map((key) => data[key]).join("\t") + "\n",
|
||||||
|
),
|
||||||
|
);
|
||||||
|
console.timeEnd("map");
|
||||||
|
console.time("copy");
|
||||||
|
const writable =
|
||||||
|
await sql`copy precios (${sql.unsafe(keys.join(", "))}) from stdin with CSV DELIMITER E'\t' QUOTE E'\b'`.writable();
|
||||||
|
await pipeline(lines, writable);
|
||||||
|
console.timeEnd("copy");
|
||||||
|
console.info(`saved ${objs.length} rows`);
|
||||||
|
} catch (e) {
|
||||||
|
reject(e);
|
||||||
|
return;
|
||||||
|
} finally {
|
||||||
|
Bun.gc(true);
|
||||||
|
resolve(void 0);
|
||||||
|
}
|
||||||
|
},
|
||||||
|
skipEmptyLines: true,
|
||||||
|
});
|
||||||
|
});
|
||||||
|
});
|
||||||
|
}
|
||||||
|
|
||||||
|
try {
|
||||||
|
const glob = new Glob("**/productos.csv");
|
||||||
|
for await (const file of glob.scan(process.argv[2])) {
|
||||||
|
const dir = join(process.argv[2], dirname(file));
|
||||||
|
console.log(dir);
|
||||||
|
await importDataset(dir);
|
||||||
|
}
|
||||||
|
} finally {
|
||||||
|
await sql.end();
|
||||||
|
}
|
17
sepa-precios-importer/package.json
Normal file
17
sepa-precios-importer/package.json
Normal file
|
@ -0,0 +1,17 @@
|
||||||
|
{
|
||||||
|
"name": "sepa-precios-importer",
|
||||||
|
"module": "index.ts",
|
||||||
|
"type": "module",
|
||||||
|
"devDependencies": {
|
||||||
|
"@types/bun": "^1.1.7",
|
||||||
|
"@types/papaparse": "^5.3.14"
|
||||||
|
},
|
||||||
|
"peerDependencies": {
|
||||||
|
"typescript": "^5.0.0"
|
||||||
|
},
|
||||||
|
"dependencies": {
|
||||||
|
"p-queue": "^8.0.1",
|
||||||
|
"papaparse": "^5.4.1",
|
||||||
|
"postgres": "^3.4.4"
|
||||||
|
}
|
||||||
|
}
|
27
sepa-precios-importer/tsconfig.json
Normal file
27
sepa-precios-importer/tsconfig.json
Normal file
|
@ -0,0 +1,27 @@
|
||||||
|
{
|
||||||
|
"compilerOptions": {
|
||||||
|
// Enable latest features
|
||||||
|
"lib": ["ESNext", "DOM"],
|
||||||
|
"target": "ESNext",
|
||||||
|
"module": "ESNext",
|
||||||
|
"moduleDetection": "force",
|
||||||
|
"jsx": "react-jsx",
|
||||||
|
"allowJs": true,
|
||||||
|
|
||||||
|
// Bundler mode
|
||||||
|
"moduleResolution": "bundler",
|
||||||
|
"allowImportingTsExtensions": true,
|
||||||
|
"verbatimModuleSyntax": true,
|
||||||
|
"noEmit": true,
|
||||||
|
|
||||||
|
// Best practices
|
||||||
|
"strict": true,
|
||||||
|
"skipLibCheck": true,
|
||||||
|
"noFallthroughCasesInSwitch": true,
|
||||||
|
|
||||||
|
// Some stricter flags (disabled by default)
|
||||||
|
"noUnusedLocals": false,
|
||||||
|
"noUnusedParameters": false,
|
||||||
|
"noPropertyAccessFromIndexSignature": false
|
||||||
|
}
|
||||||
|
}
|
Loading…
Reference in a new issue