163java
About 16 results
  1. 【转】大数据量下,分页查询优化方法解释

    http://www.cnblogs.com/ainiaa/archive/2010/12/21/1912996.html
    2010年12月21日 - 原文地址:http://blog.sina.com.cn/s/blog_6353885f0100gn4q.html   算法如这篇文章 http://hi.baidu.com/%D4%E7%B9%C8%C9%E7%C7%F8/blog/item/1fd6f3d04927fd86a1ec9c44.html 之前老王也发过
  2. MySQL随机获取数据的方法,支持大数据量

    http://www.cnblogs.com/langtianya/p/5352893.html
    2016年04月04日 - 最近做项目,需要做一个从mysql数据库中随机取几条数据出来。 总所周知,order by rand 会死人的。。因为本人对大数据量方面的只是了解的很少,无解,去找百度老师。。搜索结果千篇一律。特发到这里来,供大家学习。 在mysql中带了随机取数据的函数,在mysql中我们会有rand()函数,很多朋友都会直接使用,
  3. 软件开发管理之小调整:使大数据量的性能测试在开发时同步进行

    http://www.cnblogs.com/freeliver54/archive/2011/01/18/1938724.html
    2011年01月18日 - 按普遍的软件开发管理,我们的项目都是先编码开发,而后进行相关测试,尤其是性能测试,甚至未进行性能测试。 所以,往往性能问题,暴露的较晚,通常是系统上线一段时间后,需要对性能进行优化。 我们是否可以做一些调整,在开发过程中,即注意到性能,使用有效率的代码及处理,在满足功能的同时,满足基本的性能? 下面说一种处理方案,促使
  4. 大数据量及海量数据处理算法总结

    http://www.cnblogs.com/jishu/archive/2011/04/27/2030921.html
    2011年04月27日 -       大数据量的问题是很多面试笔试中经常出现的问题,比如baidu google 腾讯 这样的一些涉及到海量数据的公司经常会问到。       下面的方法是我对海量数据的处理方法进行了一个一般性的总结,当然这些方法可能并不能完全覆盖所有的问题,但是这样的一些方法也基本可以处理绝大多数遇到 的问题。下面的一些问题基
  5. 在INFORMIX中分割导入大数据量文件的方法

    http://www.cnblogs.com/liangyj666/archive/2009/08/05/1539217.html
    2009年08月05日 - load.sh   文本文件  导入表名 ---------------------------------- #!/bin/ksh echo $1 $2 cat $1|wc -l>>file.txt #按每10000条记录分割一个文件 split -l 10000 $1 $2_ ls $2_* >file2.txt
  6. php+mysql将大数据sql文件导入数据库

    http://www.cnblogs.com/zlx7/p/5009496.html
    2015年12月01日 - <?php $file_name = "d:test.sql"; $dbhost = "localhost"; $dbuser = "root"; $dbpass = "123456"; $dbname = "test"; set_time_limit(0);
  7. mysql在线修改表结构大数据表的风险与解决办法归纳

    http://www.cnblogs.com/wangtao_20/p/3504395.html
    2014年01月03日 - 整理这篇文章的缘由: 互联网应用会频繁加功能,修改需求。那么表结构也会经常修改,加字段,加索引。在线直接在生产环境的表中修改表结构,对用户使用网站是有影响。 以前我一直为这个问题头痛。当然那个时候不需要我来考虑,虽然我们没专门的dba,他们数据量比我们更大,那这种问题也会存在。所以我很想看看业界是怎么做的,我想寻找有没
  8. 关于webservice大数据量传输时的压缩和解压缩

    http://www.cnblogs.com/rxjy/p/3282334.html
    2013年09月04日 -       当访问WebSerivice时,如果数据量很大,传输数据时就会很慢。为了提高速度,我们就会想到对数据进行压缩。首先我们来分析一下。       当在webserice中传输数据时,一般都采用Dataset进行数据传输。执行的过程就是先把Dataset转化为xml进行传输,Dataset转化为xml的格式如下
  9. 大数据量分页存储过程效率测试附代码

    http://www.cnblogs.com/zgqys1980/archive/2008/09/25/1298842.html
    2008年09月25日 - 在项目中,我们经常遇到或用到分页,那么在大数据量(百万级以上)下,哪种分页算法效率最优呢?我们不妨用事实说话。   测试环境 硬件:CPU 酷睿双核T5750  内存:2G 软件:Windows server 2003    +   Sql server 2005   OK,我们首先创建一数据库:data_Test,并
  10. C#批量生成大数据量无重复随机数据的另类高效实现

    http://www.cnblogs.com/bk/archive/2012/11/30/2796073.html
    2012年11月30日 - 注:本文思路已经应用于“飞梭TXT文本数据处理百宝箱”中,有兴趣的朋友可以下载试用。 我们知道,如果需要批量生成海量无重复的随机数据是个很麻烦的事情。如果每次生成都要和之前生成的数据进行比对的话,那效率会随着数据量的增大而越来越低,最后不堪忍受。今天介绍一种另类的思路,可以高效的做到随机数据无重复。 分析:所谓随机数据
  11. mysql大数据量查询优化Retated