V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  snopy  ›  全部回复第 3 页 / 共 9 页
回复总数  180
1  2  3  4  5  6  7  8  9  
2016-12-05 10:12:39 +08:00
回复了 endice 创建的主题 Redis 请教大家一个 redis 内存占用的问题
之前搞过一个小脚本监控 redis 内存,超过某个值( 5G )就手动重启,一般能管 5 天左右,公司 storm 集群中的 redis 可以随意重启
2016-12-05 10:04:08 +08:00
回复了 uuuing 创建的主题 程序员 我的周末就喜欢~骑摩托上山,你们呢?
机车真心很吸睛啊,好想把我的小电驴换成酱紫的
2016-12-03 16:41:12 +08:00
回复了 elgoog1970 创建的主题 程序员 请问程序员周末都喜欢做些什么?
@tyhunter 话说北京小汤山附近有啥好玩的么,下周到那儿出差
2016-11-30 17:50:09 +08:00
回复了 snopy 创建的主题 问与答 为啥为知笔记的索引功能越来越难[nàn]了
直接说它烂会不会太不留情面了,索性就用了难这个字,我也想表达的另外一层意思是用户的这点要求对于他们来说就那么难吗?我最近也是在想转到其他平台了
2016-11-30 10:39:11 +08:00
回复了 doufenger 创建的主题 DevOps linux 服务器互相之间怎么传输 90G 网站文件?论坛附件非常多
供参考
#!/usr/bin/expect

spawn scp root@ip:/root/check/today_count.log /home/autowork/everyweek_check/from_232
expect '密码: '
send "密码\r"
interact


备注: Linux 文件大于 1G 的使用 scp 会受限制,可采用 split 分片之后传输。
1 )分割大文件
split -b 1000m a.tar.gz a.tar.gz. #后面输出的文件名 a.tar.gz. 会以 a.tar.gz.aa , a.tar.gz.ab , a.tar.gz.ac 形式输出,

2 )合并
cat a.tar.gz.* > a.tar.gz
2016-11-10 08:40:08 +08:00
回复了 fuliti 创建的主题 问与答 想在双 11 买个笔记本,求推荐
联想吧,我 6 年前买的 y460 ,除了电池坏了,基本没出过什么问题
2016-11-02 13:47:14 +08:00
回复了 odileghlh 创建的主题 问与答 程序猿男朋友快生日了 该送什么礼物给他
说实话,一件保暖的外套足够了
2016-11-01 23:28:45 +08:00
回复了 snsd 创建的主题 宽带症候群 贵州联通出了省内无限流量卡, 100 块钱一个月
这个必须顶一下,公司领导所谓的年末杀手锏
@20150517 有没有 staging 文件的说明?我在 google 上没搜到中文版的
2016-10-28 13:49:05 +08:00
回复了 snopy 创建的主题 问与答 爬虫能不能做这个一个需求
恩,有人已经这么做了,参考 http://www.jianshu.com/p/448af630dd72
2016-10-27 18:00:02 +08:00
回复了 snopy 创建的主题 问与答 爬虫能不能做这个一个需求
@all 其实我想咨询下具体点的技术细节,待会我到家了上个帖子的截图,谢谢
2016-10-13 11:16:51 +08:00
回复了 whxiaobu 创建的主题 程序员 技术猿除了开发类书籍,还喜欢什么样的书?
平凡的世界、茶花女、猎人笔记、钢铁是怎样炼成的。。。。。。
2016-10-11 12:30:59 +08:00
回复了 snopy 创建的主题 问与答 关于系统 cpu 占用低而 swap 占用高的困惑
@loading 写了个脚本统计 swap 的占用情况,发现 /opt/beh/core/impala/be/build/latest/service/impalad -state_store_host=hadoop001 -catalog_service_host=hadoop001 这个进程占用了 1.82GB swap 空间,对,是跑 Hadoop 应用的一个 job ,但是不清楚为啥不占 cpu 而占用 swap
2016-10-11 12:27:05 +08:00
回复了 snopy 创建的主题 问与答 关于系统 cpu 占用低而 swap 占用高的困惑
@rhen 这也是我困惑的,明明 cpu 足够却把 swap 占满了
2016-10-10 23:40:30 +08:00
回复了 thiswind 创建的主题 git 云南大学开源中心的 Gitlab 上线了
我室友是你们学校的在读研究僧,也是搞云这块的
2016-09-18 17:28:53 +08:00
回复了 snopy 创建的主题 程序员 抢月饼事件看看这篇文章
感觉这句话说得好:上层越来越官僚,中层越来越扯淡,下层越来越难过。
哪位大神来解释下这个 Perl 脚本:
use strict;
use Time::Local;
use Net::FTP;
use Getopt::Long;
use FileHandle;
use POSIX ":sys_wait_h";
use POSIX qw(strftime);
my $year = strftime "%Y",localtime(time-24*3600 );
my $day = strftime "%d",localtime(time-24*3600 );
my $month = strftime "%m",localtime(time-24*3600 );
my $hour = strftime "%H",localtime(time() );
my $min = strftime "%M",localtime(time() );
my $sec = strftime "%S",localtime(time() );
my $date = ($year.$month.$day);
my $cmd;
my $format_cmd;
my $scan_start_time;
my $script_list;
my $usage =<<"EOS";
Usage:$0 -t <scan_start_time>
for: 1.$0 -t "20110419"
-list <script_list>
for: 2.$0 -s "DM_P2PQOE_SE_AREAL3_D DM_P2PQOE_SE_AREAL1_D ..."
EOS

GetOptions(
"t:s" => \$scan_start_time,
"s:s" => \$script_list
);

if (defined $scan_start_time)
{
$date = $scan_start_time;
}

if (defined $script_list) {

my @script_list_names = split /\s+/, $script_list;
print "@script_list_names\n";

my $data_path = '/root/hadoop/pubdata/';
my $ctl_path = '/root/hadoop/hadoop_cfg/';
my $log_path = '/root/hadoop/hadoop_log/';

foreach my $script (@script_list_names) {

my $file_name = $data_path.$script.'-'.$date;

my $ctl_name = $ctl_path.$script.'.ctl';
my $log_name = $log_path.$script.'.log';

$file_name = `ls $file_name*`;
$format_cmd="perl -pi -e 's/\\\\N//g' $file_name";
system($format_cmd);
$cmd = "sqlldr userid=name/passwd\@ipms direct=true rows=1000000 bindsize=81920000 readsize=81920000 control=$ctl_name data=$file_name log=$log_name";
print $cmd;
system($cmd);
}
}
shell+Perl ,会了再哔哔其他的,否则就是在浪费时间扯淡
1  2  3  4  5  6  7  8  9  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   我们的愿景   ·   实用小工具   ·   3229 人在线   最高记录 6543   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 48ms · UTC 14:21 · PVG 22:21 · LAX 07:21 · JFK 10:21
Developed with CodeLauncher
♥ Do have faith in what you're doing.