Jump to content

Leaderboard

Popular Content

Showing content with the highest reputation on 11/20/21 in all areas

  1. Avand in vedere ca datele sunt relativ unstructured si ai multe, eu unul ma gandesc la BigData. Poate MongoDB, poate hadoop. Ceva orientat pe documente. SQL e prea inflexibil pentru care date ai tu, incearca NoSQL. https://kb.objectrocket.com/mongo-db/how-to-import-a-csv-into-mongodb-327 https://stackoverflow.com/questions/32076382/mongodb-how-to-get-max-value-from-collections
    3 points
  2. merge perfect pe tema default. Aia ALBA Cea neagra e pentru astia cu aspiratii de hacãri 🤣 @Che paginarea aia se vede precum dintii la stomatologie :))))))))
    2 points
  3. Salut! La volumetria pe care o zici 350k + 38k zilnic, as zice ca MariaDB s-ar misca foarte bine. Bineinteles conteaza cum creezi structura bazei si cum extragi datele. Sa te asiguri ca ai performanta o tabela partitionata pe timp si niste query-uri care sa foloseasca windows functions merg foarte bine. Pot sa garantez ca functioneaza pentru ca am creat o solutie asemanatoare care se afla in productie iar baza are 2.5 TB cu milioane de inserturi pe ora.
    2 points
  4. Sper ca nu incerci sa spui ca suporta DOAR 4096 coloane Doar n-ai de gand sa faci cate o coloana pentru fiecare moneda. Fa tabel de monede (cheie primara, symbol, etc ce mai vrei) si tabel de preturi (fk_moneda - adica id-ul din tabelul de monede, pret, data, etc ce mai vrei tu). Apoi interoghezi usor diverse cazuri. Eu as merge pe MySQL ca imi place mie.
    1 point
  5. Mai sunt si alte probleme la template, precum iconite uriase cand tii mouse-ul peste un user: I-am facut update recent dar se pare ca nu le-au fixat. Nu sunt chiar atat de naspa si nu am chef sa ma chinui iar sa repar astfel de probleme, e mai greu decat pare
    1 point
  6. Apache Hadoop is an open source framework that is used to efficiently store and process large datasets ranging in size from gigabytes to petabytes of data. Instead of using one large computer to store and process the data, Hadoop allows clustering multiple computers to analyze massive datasets in parallel more quickly.
    1 point
×
×
  • Create New...