mirror of
https://github.com/catdevnull/preciazo.git
synced 2024-11-26 03:26:19 +00:00
importar sucursales y arreglar cosas
This commit is contained in:
parent
97b93c0342
commit
21c661120a
1 changed files with 161 additions and 89 deletions
|
@ -20,6 +20,32 @@ await sql`
|
||||||
name TEXT UNIQUE,
|
name TEXT UNIQUE,
|
||||||
date DATE
|
date DATE
|
||||||
);`;
|
);`;
|
||||||
|
await sql`
|
||||||
|
CREATE TABLE if not exists sucursales (
|
||||||
|
id_dataset INTEGER REFERENCES datasets(id),
|
||||||
|
id_comercio INTEGER,
|
||||||
|
id_bandera INTEGER,
|
||||||
|
id_sucursal INTEGER,
|
||||||
|
sucursales_nombre TEXT,
|
||||||
|
sucursales_tipo TEXT,
|
||||||
|
sucursales_calle TEXT,
|
||||||
|
sucursales_numero TEXT,
|
||||||
|
sucursales_latitud NUMERIC,
|
||||||
|
sucursales_longitud NUMERIC,
|
||||||
|
sucursales_observaciones TEXT,
|
||||||
|
sucursales_barrio TEXT,
|
||||||
|
sucursales_codigo_postal TEXT,
|
||||||
|
sucursales_localidad TEXT,
|
||||||
|
sucursales_provincia TEXT,
|
||||||
|
sucursales_lunes_horario_atencion TEXT,
|
||||||
|
sucursales_martes_horario_atencion TEXT,
|
||||||
|
sucursales_miercoles_horario_atencion TEXT,
|
||||||
|
sucursales_jueves_horario_atencion TEXT,
|
||||||
|
sucursales_viernes_horario_atencion TEXT,
|
||||||
|
sucursales_sabado_horario_atencion TEXT,
|
||||||
|
sucursales_domingo_horario_atencion TEXT,
|
||||||
|
UNIQUE (id_dataset, id_comercio, id_bandera, id_sucursal)
|
||||||
|
);`;
|
||||||
await sql`
|
await sql`
|
||||||
CREATE TABLE if not exists precios (
|
CREATE TABLE if not exists precios (
|
||||||
id_dataset INTEGER REFERENCES datasets(id),
|
id_dataset INTEGER REFERENCES datasets(id),
|
||||||
|
@ -39,112 +65,158 @@ await sql`
|
||||||
productos_precio_unitario_promo1 NUMERIC(10, 2),
|
productos_precio_unitario_promo1 NUMERIC(10, 2),
|
||||||
productos_leyenda_promo1 TEXT,
|
productos_leyenda_promo1 TEXT,
|
||||||
productos_precio_unitario_promo2 NUMERIC(10, 2),
|
productos_precio_unitario_promo2 NUMERIC(10, 2),
|
||||||
productos_leyenda_promo2 TEXT
|
productos_leyenda_promo2 TEXT,
|
||||||
|
FOREIGN KEY (id_dataset, id_comercio, id_bandera, id_sucursal) REFERENCES sucursales(id_dataset, id_comercio, id_bandera, id_sucursal)
|
||||||
);
|
);
|
||||||
`;
|
`;
|
||||||
|
|
||||||
|
async function importSucursales(
|
||||||
|
sql: postgres.Sql,
|
||||||
|
datasetId: number,
|
||||||
|
dir: string,
|
||||||
|
) {
|
||||||
|
const sucursales: Papa.ParseResult<any> = Papa.parse(
|
||||||
|
await readFile(join(dir, "sucursales.csv"), "utf-8"),
|
||||||
|
{
|
||||||
|
header: true,
|
||||||
|
},
|
||||||
|
);
|
||||||
|
|
||||||
|
const objs = sucursales.data
|
||||||
|
.filter((data) => data.id_comercio && data.id_bandera && data.id_sucursal)
|
||||||
|
.map((data) => {
|
||||||
|
// Megatone
|
||||||
|
if ("sucursales_domingohorario_atencion" in data) {
|
||||||
|
data.sucursales_domingo_horario_atencion =
|
||||||
|
data.sucursales_domingohorario_atencion;
|
||||||
|
delete data.sucursales_domingohorario_atencion;
|
||||||
|
}
|
||||||
|
return {
|
||||||
|
id_dataset: datasetId,
|
||||||
|
...data,
|
||||||
|
};
|
||||||
|
});
|
||||||
|
const keys = Object.keys(objs[0]);
|
||||||
|
const lines = Readable.from(
|
||||||
|
objs.map((data) => keys.map((key) => (data as any)[key]).join("\t") + "\n"),
|
||||||
|
);
|
||||||
|
const writable =
|
||||||
|
await sql`copy sucursales (${sql.unsafe(keys.join(", "))}) from stdin with CSV DELIMITER E'\t' QUOTE E'\b'`.writable();
|
||||||
|
await pipeline(lines, writable);
|
||||||
|
}
|
||||||
|
|
||||||
async function importDataset(dir: string) {
|
async function importDataset(dir: string) {
|
||||||
const date = basename(dir).match(/(\d{4}-\d{2}-\d{2})/)![1];
|
const date = basename(dir).match(/(\d{4}-\d{2}-\d{2})/)![1];
|
||||||
// TODO: parsear "Ultima actualizacion" al final del CSV y insertarlo en la tabla datasets
|
// TODO: parsear "Ultima actualizacion" al final del CSV y insertarlo en la tabla datasets
|
||||||
|
|
||||||
return await sql.begin(async () => {
|
// {
|
||||||
let datasetId: number;
|
// const res =
|
||||||
try {
|
// await sql`select id from datasets where name = ${basename(dir)}`;
|
||||||
|
// await importSucursales(sql, res[0].id, dir);
|
||||||
|
// }
|
||||||
|
|
||||||
|
try {
|
||||||
|
await sql.begin(async (sql) => {
|
||||||
|
let datasetId: number;
|
||||||
const res =
|
const res =
|
||||||
await sql`insert into datasets (name, date) values (${basename(dir)}, ${date}) returning id`;
|
await sql`insert into datasets (name, date) values (${basename(dir)}, ${date}) returning id`;
|
||||||
datasetId = res[0].id;
|
datasetId = res[0].id;
|
||||||
} catch (e) {
|
const datas: any[] = [];
|
||||||
if ((e as any).code == "23505") {
|
|
||||||
console.log(`dataset ${basename(dir)} already exists`);
|
const comercios: Papa.ParseResult<{ comercio_cuit: string }> = Papa.parse(
|
||||||
|
await readFile(join(dir, "comercio.csv"), "utf-8"),
|
||||||
|
{ header: true },
|
||||||
|
);
|
||||||
|
const comercioCuit = comercios.data[0].comercio_cuit;
|
||||||
|
console.log(`dataset ${datasetId}, comercio ${comercioCuit}`);
|
||||||
|
|
||||||
|
await importSucursales(sql, datasetId, dir);
|
||||||
|
|
||||||
|
let file = await readFile(join(dir, "productos.csv"), "utf-8");
|
||||||
|
// WALL OF SHAME: estos proveedores no saben producir CSVs correctos
|
||||||
|
if (comercioCuit == "30612929455") {
|
||||||
|
// Libertad S.A.
|
||||||
|
file = file.replaceAll("|RAPTOR 6X16X45", "/RAPTOR 6X16X45");
|
||||||
|
} else if (comercioCuit == "30578411174") {
|
||||||
|
// Alberdi S.A.
|
||||||
|
file = file.replaceAll(";", "|");
|
||||||
|
}
|
||||||
|
if (
|
||||||
|
["33504047089", "30707429468", "30589621499"].includes(comercioCuit)
|
||||||
|
) {
|
||||||
|
// TODO: si tienen los valores, pero con otros nombres, por ejemplo
|
||||||
|
// productos_precio_lista seria precio_unitario_bulto_por_unidad_venta_con_iva.
|
||||||
|
// pero no quiero mentir, asi que por ahora no lo importo
|
||||||
|
console.error(
|
||||||
|
`No voy a importar el dataset ${dir} porque el formato está mal. Pero se podría importar. Pero por ahora no lo voy a hacer. Véase https://gist.github.com/catdevnull/587d5c63c4bab11b9798861c917db93b`,
|
||||||
|
);
|
||||||
return;
|
return;
|
||||||
}
|
}
|
||||||
throw e;
|
console.time("parse");
|
||||||
}
|
return await new Promise((resolve, reject) => {
|
||||||
const datas: any[] = [];
|
Papa.parse(file, {
|
||||||
|
header: true,
|
||||||
const comercios: Papa.ParseResult<{ comercio_cuit: string }> = Papa.parse(
|
step: function (result: any) {
|
||||||
await readFile(join(dir, "comercio.csv"), "utf-8"),
|
const { data } = result;
|
||||||
{ header: true },
|
if (
|
||||||
);
|
data.id_comercio &&
|
||||||
const comercioCuit = comercios.data[0].comercio_cuit;
|
data.id_bandera &&
|
||||||
console.log(`dataset ${datasetId}, comercio ${comercioCuit}`);
|
data.id_sucursal &&
|
||||||
|
data.id_producto
|
||||||
let file = await readFile(join(dir, "productos.csv"), "utf-8");
|
)
|
||||||
// WALL OF SHAME: estos proveedores no saben producir CSVs correctos
|
datas.push(data);
|
||||||
if (comercioCuit == "30612929455") {
|
},
|
||||||
// Libertad S.A.
|
complete: async function () {
|
||||||
file = file.replaceAll("|RAPTOR 6X16X45", "/RAPTOR 6X16X45");
|
try {
|
||||||
} else if (comercioCuit == "30578411174") {
|
console.timeEnd("parse");
|
||||||
// Alberdi S.A.
|
console.time("map");
|
||||||
file = file.replaceAll(";", "|");
|
const objs = datas.map((data) => {
|
||||||
}
|
delete data.id_dun_14;
|
||||||
if (["33504047089", "30707429468", "30589621499"].includes(comercioCuit)) {
|
return {
|
||||||
// TODO: si tienen los valores, pero con otros nombres, por ejemplo
|
id_dataset: datasetId,
|
||||||
// productos_precio_lista seria precio_unitario_bulto_por_unidad_venta_con_iva.
|
...data,
|
||||||
// pero no quiero mentir, asi que por ahora no lo importo
|
productos_descripcion: data.productos_descripcion.replaceAll(
|
||||||
console.error(
|
"\t",
|
||||||
`No voy a importar el dataset ${dir} porque el formato está mal. Pero se podría importar. Pero por ahora no lo voy a hacer. Véase https://gist.github.com/catdevnull/587d5c63c4bab11b9798861c917db93b`,
|
" ",
|
||||||
);
|
),
|
||||||
return;
|
};
|
||||||
}
|
});
|
||||||
console.time("parse");
|
if (!objs.length) {
|
||||||
return await new Promise((resolve, reject) => {
|
console.error(`No hay datos para el dataset ${dir}`);
|
||||||
Papa.parse(file, {
|
return;
|
||||||
header: true,
|
}
|
||||||
step: function (result: any) {
|
const keys = Object.keys(objs[0]);
|
||||||
const { data } = result;
|
const lines = Readable.from(
|
||||||
if (
|
objs.map(
|
||||||
data.id_comercio &&
|
(data) => keys.map((key) => data[key]).join("\t") + "\n",
|
||||||
data.id_bandera &&
|
|
||||||
data.id_sucursal &&
|
|
||||||
data.id_producto
|
|
||||||
)
|
|
||||||
datas.push(data);
|
|
||||||
},
|
|
||||||
complete: async function () {
|
|
||||||
try {
|
|
||||||
console.timeEnd("parse");
|
|
||||||
console.time("map");
|
|
||||||
const objs = datas.map((data) => {
|
|
||||||
delete data.id_dun_14;
|
|
||||||
return {
|
|
||||||
id_dataset: datasetId,
|
|
||||||
...data,
|
|
||||||
productos_descripcion: data.productos_descripcion.replaceAll(
|
|
||||||
"\t",
|
|
||||||
" ",
|
|
||||||
),
|
),
|
||||||
};
|
);
|
||||||
});
|
console.timeEnd("map");
|
||||||
if (!objs.length) {
|
console.time("copy");
|
||||||
console.error(`No hay datos para el dataset ${dir}`);
|
const writable =
|
||||||
|
await sql`copy precios (${sql.unsafe(keys.join(", "))}) from stdin with CSV DELIMITER E'\t' QUOTE E'\b'`.writable();
|
||||||
|
await pipeline(lines, writable);
|
||||||
|
console.timeEnd("copy");
|
||||||
|
console.info(`saved ${objs.length} rows`);
|
||||||
|
} catch (e) {
|
||||||
|
reject(e);
|
||||||
return;
|
return;
|
||||||
|
} finally {
|
||||||
|
Bun.gc(true);
|
||||||
|
resolve(void 0);
|
||||||
}
|
}
|
||||||
const keys = Object.keys(objs[0]);
|
},
|
||||||
const lines = Readable.from(
|
skipEmptyLines: true,
|
||||||
objs.map(
|
});
|
||||||
(data) => keys.map((key) => data[key]).join("\t") + "\n",
|
|
||||||
),
|
|
||||||
);
|
|
||||||
console.timeEnd("map");
|
|
||||||
console.time("copy");
|
|
||||||
const writable =
|
|
||||||
await sql`copy precios (${sql.unsafe(keys.join(", "))}) from stdin with CSV DELIMITER E'\t' QUOTE E'\b'`.writable();
|
|
||||||
await pipeline(lines, writable);
|
|
||||||
console.timeEnd("copy");
|
|
||||||
console.info(`saved ${objs.length} rows`);
|
|
||||||
} catch (e) {
|
|
||||||
reject(e);
|
|
||||||
return;
|
|
||||||
} finally {
|
|
||||||
Bun.gc(true);
|
|
||||||
resolve(void 0);
|
|
||||||
}
|
|
||||||
},
|
|
||||||
skipEmptyLines: true,
|
|
||||||
});
|
});
|
||||||
});
|
});
|
||||||
});
|
} catch (e) {
|
||||||
|
if ((e as any).code == "23505") {
|
||||||
|
console.log(`dataset ${basename(dir)} already exists`);
|
||||||
|
return;
|
||||||
|
}
|
||||||
|
throw e;
|
||||||
|
}
|
||||||
}
|
}
|
||||||
|
|
||||||
try {
|
try {
|
||||||
|
|
Loading…
Reference in a new issue