mirror of
https://github.com/catdevnull/preciazo.git
synced 2024-11-26 11:36:20 +00:00
Compare commits
No commits in common. "076abab943c1211d05492b456732bc4c42994b0e" and "4c7d11840b1c58019515ebb809d8a0e12e8807b3" have entirely different histories.
076abab943
...
4c7d11840b
4 changed files with 68 additions and 99 deletions
BIN
sepa/bun.lockb
BIN
sepa/bun.lockb
Binary file not shown.
|
@ -9,7 +9,6 @@ export const zResource = z.object({
|
|||
url: z.string(),
|
||||
modified: z.coerce.date().optional(),
|
||||
description: z.string(),
|
||||
name: z.string(),
|
||||
});
|
||||
export type Resource = z.infer<typeof zResource>;
|
||||
export const zDatasetInfo = z.object({
|
||||
|
|
|
@ -1,13 +1,10 @@
|
|||
import * as fs from "fs/promises";
|
||||
import { readFile } from "fs/promises";
|
||||
import Papa from "papaparse";
|
||||
import { basename, join, dirname } from "path";
|
||||
import postgres from "postgres";
|
||||
import { Readable } from "stream";
|
||||
import { pipeline } from "node:stream/promises";
|
||||
import { Glob } from "bun";
|
||||
import PQueue from "p-queue";
|
||||
|
||||
// TODO: verificar que pasa cuando hay varios datasets del mismo día (como los suele haber cuando actualizan el dataset con nuevos comercios)
|
||||
|
||||
const sql = postgres({
|
||||
database: "sepa-precios",
|
||||
|
@ -68,38 +65,21 @@ await sql`
|
|||
productos_precio_unitario_promo1 NUMERIC(10, 2),
|
||||
productos_leyenda_promo1 TEXT,
|
||||
productos_precio_unitario_promo2 NUMERIC(10, 2),
|
||||
productos_leyenda_promo2 TEXT
|
||||
productos_leyenda_promo2 TEXT,
|
||||
FOREIGN KEY (id_dataset, id_comercio, id_bandera, id_sucursal) REFERENCES sucursales(id_dataset, id_comercio, id_bandera, id_sucursal)
|
||||
);
|
||||
`;
|
||||
|
||||
await sql`
|
||||
CREATE INDEX IF NOT EXISTS idx_precios_composite ON precios (id_dataset, id_comercio, id_bandera, id_sucursal, id_producto);
|
||||
`;
|
||||
|
||||
await sql`
|
||||
CREATE INDEX IF NOT EXISTS idx_sucursales_composite ON sucursales (id_dataset, id_comercio, id_bandera, id_sucursal);
|
||||
`;
|
||||
|
||||
async function readFile(path: string) {
|
||||
// XXX: DORINKA SRL a veces envía archivos con UTF-16.
|
||||
const buffer = await fs.readFile(path, { encoding: null });
|
||||
if (buffer[0] === 0xff && buffer[1] === 0xfe) {
|
||||
return buffer.toString("utf16le");
|
||||
} else {
|
||||
return buffer.toString("utf8");
|
||||
}
|
||||
}
|
||||
|
||||
async function importSucursales(
|
||||
sql: postgres.Sql,
|
||||
datasetId: number,
|
||||
dir: string
|
||||
dir: string,
|
||||
) {
|
||||
const sucursales: Papa.ParseResult<any> = Papa.parse(
|
||||
await readFile(join(dir, "sucursales.csv")),
|
||||
await readFile(join(dir, "sucursales.csv"), "utf-8"),
|
||||
{
|
||||
header: true,
|
||||
}
|
||||
},
|
||||
);
|
||||
|
||||
const objs = sucursales.data
|
||||
|
@ -118,7 +98,7 @@ async function importSucursales(
|
|||
});
|
||||
const keys = Object.keys(objs[0]);
|
||||
const lines = Readable.from(
|
||||
objs.map((data) => keys.map((key) => (data as any)[key]).join("\t") + "\n")
|
||||
objs.map((data) => keys.map((key) => (data as any)[key]).join("\t") + "\n"),
|
||||
);
|
||||
const writable =
|
||||
await sql`copy sucursales (${sql.unsafe(keys.join(", "))}) from stdin with CSV DELIMITER E'\t' QUOTE E'\b'`.writable();
|
||||
|
@ -141,17 +121,18 @@ async function importDataset(dir: string) {
|
|||
const res =
|
||||
await sql`insert into datasets (name, date) values (${basename(dir)}, ${date}) returning id`;
|
||||
datasetId = res[0].id;
|
||||
const datas: any[] = [];
|
||||
|
||||
const comercios: Papa.ParseResult<{ comercio_cuit: string }> = Papa.parse(
|
||||
await readFile(join(dir, "comercio.csv")),
|
||||
{ header: true }
|
||||
await readFile(join(dir, "comercio.csv"), "utf-8"),
|
||||
{ header: true },
|
||||
);
|
||||
const comercioCuit = comercios.data[0].comercio_cuit;
|
||||
console.log(`dataset ${datasetId}, comercio ${comercioCuit}`);
|
||||
|
||||
await importSucursales(sql, datasetId, dir);
|
||||
|
||||
let file = await readFile(join(dir, "productos.csv"));
|
||||
let file = await readFile(join(dir, "productos.csv"), "utf-8");
|
||||
// WALL OF SHAME: estos proveedores no saben producir CSVs correctos
|
||||
if (comercioCuit == "30612929455") {
|
||||
// Libertad S.A.
|
||||
|
@ -167,75 +148,67 @@ async function importDataset(dir: string) {
|
|||
// productos_precio_lista seria precio_unitario_bulto_por_unidad_venta_con_iva.
|
||||
// pero no quiero mentir, asi que por ahora no lo importo
|
||||
console.error(
|
||||
`No voy a importar el dataset ${dir} porque el formato está mal. Pero se podría importar. Pero por ahora no lo voy a hacer. Véase https://gist.github.com/catdevnull/587d5c63c4bab11b9798861c917db93b`
|
||||
`No voy a importar el dataset ${dir} porque el formato está mal. Pero se podría importar. Pero por ahora no lo voy a hacer. Véase https://gist.github.com/catdevnull/587d5c63c4bab11b9798861c917db93b`,
|
||||
);
|
||||
return;
|
||||
}
|
||||
|
||||
console.time("parse");
|
||||
|
||||
const writable =
|
||||
await sql`copy precios (id_dataset, id_comercio, id_bandera, id_sucursal, id_producto, productos_ean, productos_descripcion, productos_cantidad_presentacion, productos_unidad_medida_presentacion, productos_marca, productos_precio_lista, productos_precio_referencia, productos_cantidad_referencia, productos_unidad_medida_referencia, productos_precio_unitario_promo1, productos_leyenda_promo1, productos_precio_unitario_promo2, productos_leyenda_promo2) from stdin with CSV DELIMITER E'\t' QUOTE E'\b'`.writable();
|
||||
|
||||
let rowCount = 0;
|
||||
|
||||
async function* processRows() {
|
||||
const parsedData = Papa.parse(file, {
|
||||
return await new Promise((resolve, reject) => {
|
||||
Papa.parse(file, {
|
||||
header: true,
|
||||
step: function (result: any) {
|
||||
const { data } = result;
|
||||
if (
|
||||
data.id_comercio &&
|
||||
data.id_bandera &&
|
||||
data.id_sucursal &&
|
||||
data.id_producto
|
||||
)
|
||||
datas.push(data);
|
||||
},
|
||||
complete: async function () {
|
||||
try {
|
||||
console.timeEnd("parse");
|
||||
console.time("map");
|
||||
const objs = datas.map((data) => {
|
||||
delete data.id_dun_14;
|
||||
return {
|
||||
id_dataset: datasetId,
|
||||
...data,
|
||||
productos_descripcion: data.productos_descripcion.replaceAll(
|
||||
"\t",
|
||||
" ",
|
||||
),
|
||||
};
|
||||
});
|
||||
if (!objs.length) {
|
||||
console.error(`No hay datos para el dataset ${dir}`);
|
||||
return;
|
||||
}
|
||||
const keys = Object.keys(objs[0]);
|
||||
const lines = Readable.from(
|
||||
objs.map(
|
||||
(data) => keys.map((key) => data[key]).join("\t") + "\n",
|
||||
),
|
||||
);
|
||||
console.timeEnd("map");
|
||||
console.time("copy");
|
||||
const writable =
|
||||
await sql`copy precios (${sql.unsafe(keys.join(", "))}) from stdin with CSV DELIMITER E'\t' QUOTE E'\b'`.writable();
|
||||
await pipeline(lines, writable);
|
||||
console.timeEnd("copy");
|
||||
console.info(`saved ${objs.length} rows`);
|
||||
} catch (e) {
|
||||
reject(e);
|
||||
return;
|
||||
} finally {
|
||||
Bun.gc(true);
|
||||
resolve(void 0);
|
||||
}
|
||||
},
|
||||
skipEmptyLines: true,
|
||||
});
|
||||
|
||||
for (const data of parsedData.data as any[]) {
|
||||
if (
|
||||
data.id_comercio &&
|
||||
data.id_bandera &&
|
||||
data.id_sucursal &&
|
||||
data.id_producto
|
||||
) {
|
||||
delete data.id_dun_14;
|
||||
const row = {
|
||||
id_dataset: datasetId,
|
||||
...data,
|
||||
productos_descripcion: data.productos_descripcion
|
||||
.replaceAll("\t", " ")
|
||||
.trim(),
|
||||
productos_marca: data.productos_marca.trim(),
|
||||
};
|
||||
const values =
|
||||
[
|
||||
row.id_dataset,
|
||||
row.id_comercio,
|
||||
row.id_bandera,
|
||||
row.id_sucursal,
|
||||
row.id_producto,
|
||||
row.productos_ean,
|
||||
row.productos_descripcion,
|
||||
row.productos_cantidad_presentacion,
|
||||
row.productos_unidad_medida_presentacion,
|
||||
row.productos_marca,
|
||||
row.productos_precio_lista,
|
||||
row.productos_precio_referencia,
|
||||
row.productos_cantidad_referencia,
|
||||
row.productos_unidad_medida_referencia,
|
||||
row.productos_precio_unitario_promo1,
|
||||
row.productos_leyenda_promo1,
|
||||
row.productos_precio_unitario_promo2,
|
||||
row.productos_leyenda_promo2,
|
||||
].join("\t") + "\n";
|
||||
|
||||
rowCount++;
|
||||
yield values;
|
||||
}
|
||||
}
|
||||
}
|
||||
|
||||
const generator = processRows();
|
||||
await pipeline(Readable.from(generator), writable);
|
||||
|
||||
console.timeEnd("parse");
|
||||
console.info(`saved ${rowCount} rows`);
|
||||
|
||||
Bun.gc(true);
|
||||
});
|
||||
});
|
||||
} catch (e) {
|
||||
if ((e as any).code == "23505") {
|
||||
|
@ -246,16 +219,13 @@ async function importDataset(dir: string) {
|
|||
}
|
||||
}
|
||||
|
||||
const pQueue = new PQueue({ concurrency: 4 });
|
||||
|
||||
try {
|
||||
const glob = new Glob("**/productos.csv");
|
||||
for await (const file of glob.scan(process.argv[2])) {
|
||||
const dir = join(process.argv[2], dirname(file));
|
||||
console.log(dir);
|
||||
pQueue.add(() => importDataset(dir));
|
||||
await importDataset(dir);
|
||||
}
|
||||
} finally {
|
||||
await pQueue.onIdle();
|
||||
await sql.end();
|
||||
}
|
||||
|
|
|
@ -10,9 +10,9 @@
|
|||
"typescript": "^5.0.0"
|
||||
},
|
||||
"dependencies": {
|
||||
"ckan": "workspace:*",
|
||||
"p-queue": "^8.0.1",
|
||||
"papaparse": "^5.4.1",
|
||||
"postgres": "^3.4.4"
|
||||
"postgres": "^3.4.4",
|
||||
"ckan": "workspace:*"
|
||||
}
|
||||
}
|
||||
|
|
Loading…
Reference in a new issue