0%

How to check disk space

Start by tracking down where the excess usage is being stored. If you have no idea, start from the mountpoint for /dev/sda1:

1
mount | grep sda1

Use the du command. If /dev/sda1 is mounted on / (“root”):

1
du --max-depth=1 --human-readable / | sort --human-numeric-sort

This will list the first level of directories contained in the specified path, in order from smallest to largest. You can increase the depth past 1 to get details of the subdirectories, or change the path to specify a single directory. You can also use the short flags.

For instance, if your username is ubuntu and you want to inspect your home directory:

1
du -d1 -h /home/ubuntu | sort -h

lsof 一切皆文件

lsof(list open files)是一个查看当前系统文件的工具。在linux环境下,任何事物都以文件的形式存在,通过文件不仅仅可以访问常规数据,还可以访问网络连接和硬件。如传输控制协议 (TCP) 和用户数据报协议 (UDP) 套接字等,系统在后台都为该应用程序分配了一个文件描述符,该文件描述符提供了大量关于这个应用程序本身的信息。

lsof打开的文件可以是:

普通文件
目录
网络文件系统的文件
字符或设备文件
(函数)共享库
管道,命名管道
符号链接
网络文件(例如:NFS file、网络socket,unix域名socket)
还有其它类型的文件,等等
  1. 命令参数
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    -a 列出打开文件存在的进程
    -c<进程名> 列出指定进程所打开的文件
    -g 列出GID号进程详情
    -d<文件号> 列出占用该文件号的进程
    +d<目录> 列出目录下被打开的文件
    +D<目录> 递归列出目录下被打开的文件
    -n<目录> 列出使用NFS的文件
    -i<条件> 列出符合条件的进程。(4、6、协议、:端口、 @ip )
    -p<进程号> 列出指定进程号所打开的文件
    -u 列出UID号进程详情
    -h 显示帮助信息
    -v 显示版本信息
  2. 使用实例
    实例1:无任何参数
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    $lsof| more
    COMMAND PID USER FD TYPE DEVICE SIZE/OFF NODE NAME
    init 1 root cwd DIR 253,0 4096 2 /
    init 1 root rtd DIR 253,0 4096 2 /
    init 1 root txt REG 253,0 150352 1310795 /sbin/init
    init 1 root mem REG 253,0 65928 5505054 /lib64/libnss_files-2.12.so
    init 1 root mem REG 253,0 1918016 5521405 /lib64/libc-2.12.so
    init 1 root mem REG 253,0 93224 5521440 /lib64/libgcc_s-4.4.6-20120305.so.1
    init 1 root mem REG 253,0 47064 5521407 /lib64/librt-2.12.so
    init 1 root mem REG 253,0 145720 5521406 /lib64/libpthread-2.12.so
    ...
    说明:

lsof输出各列信息的意义如下:

  • COMMAND:进程的名称

  • PID:进程标识符

  • PPID:父进程标识符(需要指定-R参数)

  • USER:进程所有者

  • PGID:进程所属组

  • FD:文件描述符,应用程序通过文件描述符识别该文件。如cwd、txt等:

    (1)cwd:表示current work dirctory,即:应用程序的当前工作目录,这是该应用程序启动的目录,除非它本身对这个目录进行更改
    (2)txt :该类型的文件是程序代码,如应用程序二进制文件本身或共享库,如上列表中显示的 /sbin/init 程序
    (3)lnn:library references (AIX);
    (4)er:FD information error (see NAME column);
    (5)jld:jail directory (FreeBSD);
    (6)ltx:shared library text (code and data);
    (7)mxx :hex memory-mapped type number xx.
    (8)m86:DOS Merge mapped file;
    (9)mem:memory-mapped file;
    (10)mmap:memory-mapped device;
    (11)pd:parent directory;
    (12)rtd:root directory;
    (13)tr:kernel trace file (OpenBSD);
    (14)v86 VP/ix mapped file;
    (15)0:表示标准输入
    (16)1:表示标准输出
    (17)2:表示标准错误
    一般在标准输出、标准错误、标准输入后还跟着文件状态模式:r、w、u等
    (1)u:表示该文件被打开并处于读取/写入模式
    (2)r:表示该文件被打开并处于只读模式
    (3)w:表示该文件被打开并处于
    (4)空格:表示该文件的状态模式为unknow,且没有锁定
    (5)-:表示该文件的状态模式为unknow,且被锁定
    同时在文件状态模式后面,还跟着相关的锁
    (1)N:for a Solaris NFS lock of unknown type;
    (2)r:for read lock on part of the file;
    (3)R:for a read lock on the entire file;
    (4)w:for a write lock on part of the file;(文件的部分写锁)
    (5)W:for a write lock on the entire file;(整个文件的写锁)
    (6)u:for a read and write lock of any length;
    (7)U:for a lock of unknown type;
    (8)x:for an SCO OpenServer Xenix lock on part of the file;
    (9)X:for an SCO OpenServer Xenix lock on the entire file;
    (10)space:if there is no lock.

  • TYPE:文件类型,如DIR、REG等,常见的文件类型:

    (1)DIR:表示目录
    (2)CHR:表示字符类型
    (3)BLK:块设备类型
    (4)UNIX: UNIX 域套接字
    (5)FIFO:先进先出 (FIFO) 队列
    (6)IPv4:网际协议 (IP) 套接字

  • DEVICE:指定磁盘的名称

  • SIZE:文件的大小

  • NODE:索引节点(文件在磁盘上的标识)

  • NAME:打开文件的确切名称

实例2:查找某个文件相关的进程

1
2
3
4
5
$lsof /bin/bash
COMMAND PID USER FD TYPE DEVICE SIZE/OFF NODE NAME
mysqld_sa 2169 root txt REG 253,0 938736 4587562 /bin/bash
ksmtuned 2334 root txt REG 253,0 938736 4587562 /bin/bash
bash 20121 root txt REG 253,0 938736 4587562 /bin/bash

实例3:列出某个用户打开的文件信息

1
$lsof -u username

-u 选项,u是user的缩写

实例4:列出某个程序进程所打开的文件信息

1
$lsof -c mysql

-c 选项将会列出所有以mysql这个进程开头的程序的文件,其实你也可以写成

1
lsof | grep mysql

但是第一种方法明显比第二种方法要少打几个字符;
实例5:列出某个用户以及某个进程所打开的文件信息

1
$lsof  -u test -c mysql

实例6:通过某个进程号显示该进程打开的文件

1
$lsof -p 11968

实例7:列出所有的网络连接

1
$lsof -i

实例8:列出所有tcp 网络连接信息

1
$lsof -i tcp
1
2
3
4
$lsof -n -i tcp
COMMAND PID USER FD TYPE DEVICE SIZE/OFF NODE NAME
svnserve 11552 weber 3u IPv4 3799399 0t0 TCP *:svn (LISTEN)
redis-ser 25501 weber 4u IPv4 113150 0t0 TCP 127.0.0.1:6379 (LISTEN)

实例9:列出谁在使用某个端口

1
$lsof -i :3306

实例10:列出某个用户的所有活跃的网络端口

1
$lsof -a -u test -i

实例11:根据文件描述列出对应的文件信息

1
$lsof -d description(like 2)

示例:

1
2
$lsof -d 3 | grep PARSER1
tail 6499 tde 3r REG 253,3 4514722 417798 /opt/applog/open/log/HOSTPARSER1_ERROR_141217.log.001

说明: 0表示标准输入,1表示标准输出,2表示标准错误,从而可知:所以大多数应用程序所打开的文件的 FD 都是从 3 开始
实例12:列出被进程号为1234的进程所打开的所有IPV4 network files

1
$lsof -i 4 -a -p 1234

实例13:列出目前连接主机nf5260i5-td上端口为:20,21,80相关的所有文件信息,且每隔3秒重复执行

1
lsof -i @nf5260i5-td:20,21,80 -r 3

mxType

framework.jar

Static Method List

isOfParentType

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
/**
* var0 - context
* var1 - sub type need to check
* var2 - parent type
**/
public static boolean isOfParentType(Context var0, String var1, String var2) throws FrameworkException {
try {
if (var1.equals(var2)) {
return true;
} else {
String var3 = "derivative[" + var1 + "]";
String var4 = MqlUtil.mqlCommand(var0, "print type $1 select $2 dump", new String[]{var2, var3});
return var4.equalsIgnoreCase("true");
}
} catch (Exception var5) {
throw new FrameworkException(var5);
}
}

getAttributes

1
2
3
4
5
6
7
/**
* var0 - current context
* var1 - type name
*/
public static MapList getAttributes(Context var0, String var1) throws FrameworkException {
return getAttributes(var0, var1, false);
}

getAttributes

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
/**
* var0 - context
* var1 - type name
* var2 - if attribute is multiline
**/
public static MapList getAttributes(Context var0, String var1, boolean var2) throws FrameworkException {
AttributeType var3 = null;
MapList var4 = new MapList();
int var5 = 0;
String var6 = "type";
String var7 = "name";
String var8 = "description";
String var9 = "default";
String var10 = "choices";
String var11 = "multiline";

try {
ContextUtil.startTransaction(var0, false);
Vault var12 = var0.getVault();
BusinessType var13 = new BusinessType(var1, var12);
var13.open(var0);
BusinessTypeList var14 = BusinessType.getBusinessTypes(var0);
BusinessTypeItr var15 = new BusinessTypeItr(var14);

while(true) {
BusinessType var16;
do {
if (!var15.next()) {
var13.close(var0);
ContextUtil.commitTransaction(var0);
return var4;
}

var16 = var15.obj();
} while(!var16.toString().equals(var1));

var16.open(var0);
AttributeTypeList var17 = var16.getAttributeTypes(var0);

for(AttributeTypeItr var18 = new AttributeTypeItr(var17); var18.next(); ++var5) {
HashMap var19 = new HashMap();
var3 = var18.obj();
var3.open(var0);
var19.put(var7, var3.toString());
var19.put(var6, var3.getDataType());
var19.put(var8, var3.getDescription());
var19.put(var9, var3.getDefaultValue());
var19.put(var10, var3.getChoices());
if (var2) {
if ("string".equalsIgnoreCase(var3.getDataType())) {
String var20 = MqlUtil.mqlCommand(var0, "print attribute $1 select $2 dump", new String[]{var3.toString(), "multiline"});
var19.put(var11, var20);
} else {
var19.put(var11, "false");
}
}

var3.close(var0);
var4.add(var5, var19);
}

var16.close(var0);
}
} catch (Exception var21) {
ContextUtil.abortTransaction(var0);
throw new FrameworkException(var21);
}
}

getDefaultPolicy

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
/**
* var0 - context
* var1 - business type
* var2 - if true means query policy for Person otherwise false
**/
public static Map getDefaultPolicy(Context var0, String var1, boolean var2) throws FrameworkException {
try {
Map var3 = null;
MapList var4 = getPolicies(var0, var1, var2);
if (!var4.isEmpty()) {
var3 = (Map)var4.get(0);
}

return var3;
} catch (Exception var5) {
throw new FrameworkException(var5);
}
}


public static MapList getPolicies(Context var0, String var1, boolean var2) throws MatrixException {
MapList var3 = new MapList();
BusinessType var4 = new BusinessType(var1, var0.getVault());
var4.open(var0);
PolicyList var5 = null;
if (var2) {
var5 = var4.getPoliciesForPerson(var0, false);
} else {
var5 = var4.getPolicies(var0);
}

Iterator var7 = var5.iterator();

while(var7.hasNext()) {
Policy var6 = (Policy)var7.next();
var6.open(var0);
HashMap var8 = new HashMap();
var8.put("name", var6.getName());
var8.put("description", var6.getDescription(var0));
var8.put("revision", var6.getFirstInSequence());
String var9 = MqlUtil.mqlCommand(var0, "print Policy $1 select $2 dump $3", new String[]{var6.getName(), "format", "|"});
String var10 = MqlUtil.mqlCommand(var0, "print Policy $1 select $2 dump $3", new String[]{var6.getName(), "defaultformat", "|"});
String var11 = MqlUtil.mqlCommand(var0, "print Policy $1 select $2 dump $3", new String[]{var6.getName(), "store", "|"});
StringList var12 = FrameworkUtil.split(var9, "|");
var8.put("formats", var12);
var8.put("defaultFormat", var10);
var8.put("store", var11);
var6.close(var0);
var3.add(var8);
}

return var3;
}

Pretty Sqlplus Output

1
2
3
4
5
6
set lines 256;
set trimout on;
set tab off;
set pagesize 100;
set colsep " | ";
COLUMN column_name FORMAT model;

switch PDB

1
alter session set container = PDB_NAME;

Conn to CDB from PDB

1
ALTER SESSION SET CONTAINER=cdb$root;

Open PDB

1
2
alter pluggable database PDB_NAME open;
alter pluggable database all open;

Auto Open PDB when CDB restart

  1. Create trigger at CDB
    1
    2
    3
    4
    5
    6
    CREATE TRIGGER open_all_pdbs
    AFTER STARTUP ON DATABASE
    BEGIN
    EXECUTE IMMEDIATEALTER PLUGGABLE DATABASE ALL OPEN’;
    END ;
    /

    Create unlimited bigfile tablespace

    1
    CREATE BIGFILE TABLESPACE "NSNPR_DATA" DATAFILE 'D:/datafiles/NSNPR/NSNPR_tvc_index.dbf' SIZE 100M REUSE AUTOEXTEND ON NEXT 3G MAXSIZE UNLIMITED LOGGING EXTENT MANAGEMENT LOCAL SEGMENT SPACE MANAGEMENT AUTO ;

    Create user and grant privilege

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    create user NSNPR IDENTIFIED BY XXXXX
    default tablespace NSNPR_DATA
    temporary tablespace TEMP
    profile DEFAULT;
    -- Grant/Revoke role privileges
    grant connect to NSNPR;
    grant resource to NSNPR;
    -- Grant/Revoke system privileges
    grant create database link to NSNPR;
    grant create public database link to NSNPR;
    grant create table to NSNPR;
    grant create view to NSNPR;
    grant query rewrite to NSNPR;
    grant select any dictionary to NSNPR;
    grant select any table to NSNPR;
    grant unlimited tablespace to NSNPR;
    grant connect to NSNPR;
    grant resource to NSNPR;
    grant DATAPUMP_IMP_FULL_DATABASE to NSNPR;
    grant dba to NSNPR;
    grant create any index to NSNPR;

Create Directory

1
2
create or replace directory EXPDP_1
as 'D:\dump';

Impdp with multi dump file

1
impdp IMP_User/Pass@pdborcl directory=expdp_1 dumpfile=expdp_nsnpr_DB_15092020_01.dmp,expdp_nsnpr_DB_15092020_02.dmp,expdp_nsnpr_DB_15092020_03.dmp,	expdp_nsnpr_DB_15092020_04.dmp,expdp_nsnpr_DB_15092020_05.dmp,expdp_nsnpr_DB_15092020_06.dmp,expdp_nsnpr_DB_15092020_07.dmp,expdp_nsnpr_DB_15092020_08.dmp,expdp_nsnpr_DB_15092020_09.dmp,expdp_nsnpr_DB_15092020_10.dmp,expdp_nsnpr_DB_15092020_11.dmp,expdp_nsnpr_DB_15092020_12.dmp,expdp_nsnpr_DB_15092020_13.dmp full=y table_exists_action=replace logfile=NSNPR-import-%date:~4,2%-%date:~7,2%-%date:~10,4%.log LOGTIME=ALL METRICS=Y version=12.2

Resize tablespace

1
alter tablespace TABLESPACE_NAME resize 100G;

LoadRepository

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
package com.sap.mdm.examples;

import com.sap.mdm.commands.AuthenticateRepositorySessionCommand;
import com.sap.mdm.commands.CommandException;
import com.sap.mdm.commands.CreateRepositorySessionCommand;
import com.sap.mdm.commands.DestroySessionCommand;
import com.sap.mdm.net.ConnectionException;
import com.sap.mdm.net.ConnectionPool;
import com.sap.mdm.net.ConnectionPoolFactory;
import com.sap.mdm.repository.commands.LoadRepositoryCommand;
import com.sap.mdm.server.DBMSType;
import com.sap.mdm.server.RepositoryIdentifier;

/*
* Copyright © 2004-2006 by SAP AG.
* All Rights Reserved.
*
* SAP, R/3, mySAP, mySAP.com, xApps, xApp, SAP NetWeaver, and other SAP
* products and services mentioned herein as well as their respective logos are
* trademarks or registered trademarks of SAP AG in Germany and in several other
* countries all over the world. All other product and service names mentioned
* are the trademarks of their respective companies. Data contained in this
* document serves informational purposes only. National product specifications
* may vary.
*
* These materials are subject to change without notice. These materials are
* provided by SAP AG and its affiliated companies (SAP Group) for informational
* purposes only, without representation or warranty of any kind, and SAP Group
* shall not be liable for errors or omissions with respect to the materials.
* The only warranties for SAP Group products and services are those that are
* set forth in the express warranty statements accompanying such products and
* services, if any. Nothing herein should be construed as constituting an
* additional warranty.
*
*/

/**
* This example demonstrates loading a repository. The steps are:
* <ol>
* <li>Establishes connection with the MDM server</li>
* <li>Creates a repository session for the targeted repository</li>
* <li>Authenticates the session</li>
* <li>Loads the repository</li>
* <li>Destroys the session</li>
* </ol>
* Commands used:<br>
* <code>CreateRepositorySessionCommand</code><br>
* <code>AuthenticateRepositorySessionCommand</code><br>
* <code>LoadRepositoryCommand</code><br>
* <code>DestroySessionCommand</code><br>
* <br>
* <a href="LoadRepository.java">Source code for LoadRepository.java</a>
*/
public class LoadRepository {
private LoadRepository() {
}

public static void main(String[] args) {
// create connection pool
String connectionTag = "LOCALHOST";
ConnectionPool connections = null;
try {
connections = ConnectionPoolFactory.getInstance(connectionTag);
} catch (ConnectionException e) {
e.printStackTrace();
return;
}

// alternatively, a repository identifier can be obtain from the GetMountedRepositoryListCommand
RepositoryIdentifier reposId = new RepositoryIdentifier("EmptyRepos", "LOCALHOST", DBMSType.MS_SQL);

// create repository session
CreateRepositorySessionCommand sessionCommand = new CreateRepositorySessionCommand(connections);
sessionCommand.setRepositoryIdentifier(reposId);
try {
sessionCommand.execute();
} catch (CommandException e) {
e.printStackTrace();
return;
}
String sessionId = sessionCommand.getRepositorySession();

// authenticate the repository session
String userName = "Admin";
String userPassword = "";
AuthenticateRepositorySessionCommand authCommand = new AuthenticateRepositorySessionCommand(connections);
authCommand.setSession(sessionId);
authCommand.setUserName(userName);
authCommand.setUserPassword(userPassword);
try {
authCommand.execute();
} catch (CommandException e) {
e.printStackTrace();
return;
}

// load the repository
LoadRepositoryCommand loadReposCommand = new LoadRepositoryCommand(connections);
loadReposCommand.setSession(sessionId);
try {
loadReposCommand.execute();
} catch (CommandException e) {
e.printStackTrace();
return;
}

// finally destroy the repository session
DestroySessionCommand destroySessionCommand = new DestroySessionCommand(connections);
destroySessionCommand.setSession(sessionId);
try {
destroySessionCommand.execute();
} catch (CommandException e) {
e.printStackTrace();
return;
}
}
}

Create Table

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
package com.sap.mdm.examples;

import java.util.Locale;

import com.sap.mdm.commands.AuthenticateRepositorySessionCommand;
import com.sap.mdm.commands.CommandException;
import com.sap.mdm.commands.CreateRepositorySessionCommand;
import com.sap.mdm.commands.DestroySessionCommand;
import com.sap.mdm.commands.GetRepositoryRegionListCommand;
import com.sap.mdm.data.MultilingualString;
import com.sap.mdm.data.RegionProperties;
import com.sap.mdm.data.RegionalString;
import com.sap.mdm.net.ConnectionException;
import com.sap.mdm.net.ConnectionPool;
import com.sap.mdm.net.ConnectionPoolFactory;
import com.sap.mdm.schema.TableProperties;
import com.sap.mdm.schema.commands.CreateTableCommand;
import com.sap.mdm.schema.commands.GetTableListCommand;
import com.sap.mdm.server.DBMSType;
import com.sap.mdm.server.RepositoryIdentifier;

/*
* Copyright © 2004-2006 by SAP AG.
* All Rights Reserved.
*
* SAP, R/3, mySAP, mySAP.com, xApps, xApp, SAP NetWeaver, and other SAP
* products and services mentioned herein as well as their respective logos are
* trademarks or registered trademarks of SAP AG in Germany and in several other
* countries all over the world. All other product and service names mentioned
* are the trademarks of their respective companies. Data contained in this
* document serves informational purposes only. National product specifications
* may vary.
*
* These materials are subject to change without notice. These materials are
* provided by SAP AG and its affiliated companies (SAP Group) for informational
* purposes only, without representation or warranty of any kind, and SAP Group
* shall not be liable for errors or omissions with respect to the materials.
* The only warranties for SAP Group products and services are those that are
* set forth in the express warranty statements accompanying such products and
* services, if any. Nothing herein should be construed as constituting an
* additional warranty.
*
*/

/**
* This example demonstrates creating a new table for a repository. The steps
* are:
* <ol>
* <li>Establish connection with the MDM server</li>
* <li>Create a repository session for the targeted repository</li>
* <li>Authenticate the session</li>
* <li>Create the new table</li>
* <li>Destroy the session</li>
* </ol>
* Commands used:<br>
* <code>CreateRepositorySessionCommand</code><br>
* <code>AuthenticateRepositorySessionCommand</code><br>
* <code>GetTableListCommand</code><br>
* <code>GetRepositoryRegionListCommand</code><br>
* <code>CreateTableCommand</code><br>
* <code>DestroySessionCommand</code><br>
* <br>
* <a href="CreateTable.java">Source code for CreateTable.java</a>
*/
public class CreateTable {
private CreateTable() {
}

/**
* Creates a multi-lingual string based on the list of regions.
* @param regionPropertiesList the list of regions
* @param baseString the base string
* @return a multi-lingual string
*/
private static MultilingualString createMultilingualString(RegionProperties[] regionPropertiesList, String baseString) {
MultilingualString mlString = new MultilingualString();
for (int i = 0; i < regionPropertiesList.length; i++) {
Locale locale = regionPropertiesList[i].getLocale();
String regionCode = regionPropertiesList[i].getRegionCode();
String string = baseString + "_" + locale.getLanguage() + "_" + locale.getCountry();
RegionalString regionalString = new RegionalString(string, regionCode);
mlString.set(regionalString);
}

return mlString;
}

/**
* Creates a flat lookup table.
* @param regionPropertiesList the list of regions
* @return a flat table
*/
private static TableProperties createFlatTable(RegionProperties[] regionPropertiesList) {
MultilingualString tableName = createMultilingualString(regionPropertiesList, "NewTable" + System.currentTimeMillis());

TableProperties table = new TableProperties(TableProperties.FLAT);
table.setName(tableName);
table.setCode("NewCode" + System.currentTimeMillis());
table.setKeyMappable(true);
table.setDescription("");

return table;
}

public static void main(String[] args) {
// create connection pool to a MDM server
String serverName = "LOCALHOST";
ConnectionPool connections = null;
try {
connections = ConnectionPoolFactory.getInstance(serverName);
} catch (ConnectionException e) {
e.printStackTrace();
return;
}

// specify the repository to use
// alternatively, a repository identifier can be obtain from the GetMountedRepositoryListCommand
String repositoryName = "TestRepos";
String dbmsName = "LOCALHOST";
RepositoryIdentifier reposId = new RepositoryIdentifier(repositoryName, dbmsName, DBMSType.MS_SQL);

// create a repository session
CreateRepositorySessionCommand sessionCommand = new CreateRepositorySessionCommand(connections);
sessionCommand.setRepositoryIdentifier(reposId );
try {
sessionCommand.execute();
} catch (CommandException e) {
e.printStackTrace();
return;
}
String sessionId = sessionCommand.getRepositorySession();

// authenticate the repository session
String userName = "Admin";
String userPassword = "";
AuthenticateRepositorySessionCommand authCommand = new AuthenticateRepositorySessionCommand(connections);
authCommand.setSession(sessionId);
authCommand.setUserName(userName);
authCommand.setUserPassword(userPassword);
try {
authCommand.execute();
} catch (CommandException e) {
e.printStackTrace();
return;
}

// retrieve the list of tables
// this is useful for resolving conflicting table name the new table might create
GetTableListCommand tableListCommand = new GetTableListCommand(connections);
tableListCommand.setSession(sessionId);
try {
tableListCommand.execute();
} catch (CommandException e) {
e.printStackTrace();
return;
}
// get change stamp
// this is required when we make any kind of changes to the repository
int changeStamp = tableListCommand.getChangeStamp();

// retrieve the available regions (languages) for the repository
// we need this to set up the table name for each region
GetRepositoryRegionListCommand getReposRegionListCommand = new GetRepositoryRegionListCommand(connections);
getReposRegionListCommand.setRepositoryIdentifier(reposId);
try {
getReposRegionListCommand.execute();
} catch (CommandException e) {
e.printStackTrace();
return;
}
RegionProperties[] regionPropertiesList = getReposRegionListCommand.getRegions();

// set up the table to create
TableProperties newTable = createFlatTable(regionPropertiesList);

// create the table on repository
CreateTableCommand createTableCommand = new CreateTableCommand(connections);
createTableCommand.setSession(sessionId);
createTableCommand.setTable(newTable);
createTableCommand.setInChangeStamp(changeStamp);
try {
createTableCommand.execute();
} catch (CommandException e) {
e.printStackTrace();
return;
}

// finally destroy the session
DestroySessionCommand destroySessionCommand = new DestroySessionCommand(connections);
destroySessionCommand.setSession(sessionId);
try {
destroySessionCommand.execute();
} catch (CommandException e) {
e.printStackTrace();
return;
}
}
}

Create Field

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
package com.sap.mdm.examples;

import java.util.Locale;

import com.sap.mdm.commands.AuthenticateRepositorySessionCommand;
import com.sap.mdm.commands.CommandException;
import com.sap.mdm.commands.CreateRepositorySessionCommand;
import com.sap.mdm.commands.DestroySessionCommand;
import com.sap.mdm.commands.GetRepositoryRegionListCommand;
import com.sap.mdm.data.MultilingualString;
import com.sap.mdm.data.RegionProperties;
import com.sap.mdm.data.RegionalString;
import com.sap.mdm.ids.TableId;
import com.sap.mdm.net.ConnectionException;
import com.sap.mdm.net.ConnectionPool;
import com.sap.mdm.net.ConnectionPoolFactory;
import com.sap.mdm.schema.FieldKeywordType;
import com.sap.mdm.schema.FieldProperties;
import com.sap.mdm.schema.FieldSortType;
import com.sap.mdm.schema.TableProperties;
import com.sap.mdm.schema.commands.CreateFieldCommand;
import com.sap.mdm.schema.commands.GetFieldListCommand;
import com.sap.mdm.schema.commands.GetTableListCommand;
import com.sap.mdm.schema.fields.FixedWidthTextFieldProperties;
import com.sap.mdm.server.DBMSType;
import com.sap.mdm.server.RepositoryIdentifier;

/*
* Copyright © 2004-2006 by SAP AG.
* All Rights Reserved.
*
* SAP, R/3, mySAP, mySAP.com, xApps, xApp, SAP NetWeaver, and other SAP
* products and services mentioned herein as well as their respective logos are
* trademarks or registered trademarks of SAP AG in Germany and in several other
* countries all over the world. All other product and service names mentioned
* are the trademarks of their respective companies. Data contained in this
* document serves informational purposes only. National product specifications
* may vary.
*
* These materials are subject to change without notice. These materials are
* provided by SAP AG and its affiliated companies (SAP Group) for informational
* purposes only, without representation or warranty of any kind, and SAP Group
* shall not be liable for errors or omissions with respect to the materials.
* The only warranties for SAP Group products and services are those that are
* set forth in the express warranty statements accompanying such products and
* services, if any. Nothing herein should be construed as constituting an
* additional warranty.
*
*/

/**
* This example demonstrates creating a new field in the main table. The steps
* are:
* <ol>
* <li>Establishes connection with server</li>
* <li>Creates a session for the targeted repository</li>
* <li>Authenticates the session</li>
* <li>Selects the main table</li>
* <li>Creates the new field</li>
* <li>Destroys the session</li>
* </ol>
* Commands used:<br>
* <code>CreateRepositorySessionCommand</code><br>
* <code>AuthenticateRepositorySessionCommand</code><br>
* <code>GetTableListCommand</code><br>
* <code>GetFieldListCommand</code><br>
* <code>GetRepositoryRegionListCommand</code><br>
* <code>CreateFieldCommand</code><br>
* <code>DestroySessionCommand</code><br>
* <br>
* <a href="CreateField.java">Source code for CreateField.java</a>
*
*/
public class CreateField {
private CreateField() {
}

/**
* Creates a multi-lingual string based on the list of regions.
* @param regionPropertiesList the list of regions
* @param baseString the base string
* @return a multi-lingual string
*/
private static MultilingualString createMultilingualString(RegionProperties[] regionPropertiesList, String baseString) {
MultilingualString mlString = new MultilingualString();
for (int i = 0; i < regionPropertiesList.length; i++) {
Locale locale = regionPropertiesList[i].getLocale();
String regionCode = regionPropertiesList[i].getRegionCode();
String string = baseString + "_" + locale.getLanguage() + "_" + locale.getCountry();
RegionalString regionalString = new RegionalString(string, regionCode);
mlString.set(regionalString);
}

return mlString;
}

/**
* Creates a fixed-width field.
* @param tableId the table from which the field will be create in
* @param regionPropertiesList the list of regions
* @return the new fixed-width field
*/
private static FixedWidthTextFieldProperties createFixedWidthField(TableId tableId, RegionProperties[] regionPropertiesList) {
MultilingualString fieldName = createMultilingualString(regionPropertiesList, "NewField" + System.currentTimeMillis());

FixedWidthTextFieldProperties field = new FixedWidthTextFieldProperties();
field.setTableId(tableId);
field.setName(fieldName);
field.setCode("NewCode" + System.currentTimeMillis());
field.setKeywordType(FieldKeywordType.NORMAL);
field.setMultiLingual(true);
field.setModifyOnce(true);
field.setRequired(true);
field.setSortType(FieldSortType.CASE_SENSITIVE);
field.setWidth(60);
field.setDescription("");

return field;
}

public static void main(String[] args) {
// create connection pool to a MDM server
String serverName = "LOCALHOST";
ConnectionPool connections = null;
try {
connections = ConnectionPoolFactory.getInstance(serverName);
} catch (ConnectionException e) {
e.printStackTrace();
return;
}

// specify the repository to use
// alternatively, a repository identifier can be obtain from the GetMountedRepositoryListCommand
String repositoryName = "TestRepos";
String dbmsName = "LOCALHOST";
RepositoryIdentifier reposId = new RepositoryIdentifier(repositoryName, dbmsName, DBMSType.MS_SQL);

// create a repository session
CreateRepositorySessionCommand sessionCommand = new CreateRepositorySessionCommand(connections);
sessionCommand.setRepositoryIdentifier(reposId );
try {
sessionCommand.execute();
} catch (CommandException e) {
e.printStackTrace();
return;
}
String sessionId = sessionCommand.getRepositorySession();

// authenticate the repository session
String userName = "Admin";
String userPassword = "";
AuthenticateRepositorySessionCommand authCommand = new AuthenticateRepositorySessionCommand(connections);
authCommand.setSession(sessionId);
authCommand.setUserName(userName);
authCommand.setUserPassword(userPassword);
try {
authCommand.execute();
} catch (CommandException e) {
e.printStackTrace();
return;
}

// retrieve the list of tables and pick the main table for creating a new field
GetTableListCommand tableListCommand = new GetTableListCommand(connections);
tableListCommand.setSession(sessionId);
try {
tableListCommand.execute();
} catch (CommandException e) {
e.printStackTrace();
return;
}

TableProperties mainTable = null;
TableProperties[] tables = tableListCommand.getTables();
for (int i = 0; i < tables.length; i++) {
if (tables[i].getType() == TableProperties.MAIN)
mainTable = tables[i];
}

// retrieve the list of fields from the main table
// this is useful for resolving conflicting field names the new field might create
GetFieldListCommand getFieldListCommand = new GetFieldListCommand(connections);
getFieldListCommand.setSession(sessionId);
getFieldListCommand.setTableId(mainTable.getId());
try {
getFieldListCommand.execute();
} catch (CommandException e) {
e.printStackTrace();
return;
}
// get the change stamp
// this is required when we make any kind of changes to the repository
int changeStamp = getFieldListCommand.getChangeStamp();

// retrieve the available regions (languages) for the repository
// we need this to set up the field name for each region
GetRepositoryRegionListCommand getReposRegionListCommand = new GetRepositoryRegionListCommand(connections);
getReposRegionListCommand.setRepositoryIdentifier(reposId);
try {
getReposRegionListCommand.execute();
} catch (CommandException e) {
e.printStackTrace();
return;
}
RegionProperties[] regionPropertiesList = getReposRegionListCommand.getRegions();

// set up the field to create
FieldProperties newField = createFixedWidthField(mainTable.getId(), regionPropertiesList);

// create the new field
CreateFieldCommand createFieldCommand = new CreateFieldCommand(connections);
createFieldCommand.setSession(sessionId);
createFieldCommand.setField(newField);
createFieldCommand.setInChangeStamp(changeStamp);
try {
createFieldCommand.execute();
} catch (CommandException e) {
e.printStackTrace();
return;
}

// finally destroy the session
DestroySessionCommand destroySessionCommand = new DestroySessionCommand(connections);
destroySessionCommand.setSession(sessionId);
try {
destroySessionCommand.execute();
} catch (CommandException e) {
e.printStackTrace();
return;
}
}
}

Modify Field

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
package com.sap.mdm.examples;

import java.util.Locale;

import com.sap.mdm.commands.AuthenticateRepositorySessionCommand;
import com.sap.mdm.commands.CommandException;
import com.sap.mdm.commands.CreateRepositorySessionCommand;
import com.sap.mdm.commands.DestroySessionCommand;
import com.sap.mdm.commands.GetRepositoryRegionListCommand;
import com.sap.mdm.data.MultilingualString;
import com.sap.mdm.data.RegionProperties;
import com.sap.mdm.data.RegionalString;
import com.sap.mdm.ids.TableId;
import com.sap.mdm.net.ConnectionException;
import com.sap.mdm.net.ConnectionPool;
import com.sap.mdm.net.ConnectionPoolFactory;
import com.sap.mdm.schema.FieldKeywordType;
import com.sap.mdm.schema.FieldProperties;
import com.sap.mdm.schema.FieldSortType;
import com.sap.mdm.schema.TableProperties;
import com.sap.mdm.schema.commands.CreateFieldCommand;
import com.sap.mdm.schema.commands.GetFieldListCommand;
import com.sap.mdm.schema.commands.GetTableListCommand;
import com.sap.mdm.schema.commands.ModifyFieldCommand;
import com.sap.mdm.schema.fields.FixedWidthTextFieldProperties;
import com.sap.mdm.server.DBMSType;
import com.sap.mdm.server.RepositoryIdentifier;

/*
* Copyright © 2004-2006 by SAP AG.
* All Rights Reserved.
*
* SAP, R/3, mySAP, mySAP.com, xApps, xApp, SAP NetWeaver, and other SAP
* products and services mentioned herein as well as their respective logos are
* trademarks or registered trademarks of SAP AG in Germany and in several other
* countries all over the world. All other product and service names mentioned
* are the trademarks of their respective companies. Data contained in this
* document serves informational purposes only. National product specifications
* may vary.
*
* These materials are subject to change without notice. These materials are
* provided by SAP AG and its affiliated companies (SAP Group) for informational
* purposes only, without representation or warranty of any kind, and SAP Group
* shall not be liable for errors or omissions with respect to the materials.
* The only warranties for SAP Group products and services are those that are
* set forth in the express warranty statements accompanying such products and
* services, if any. Nothing herein should be construed as constituting an
* additional warranty.
*
*/

/**
* This example demonstrates modifying a new field in the main table. The steps
* are:
* <ol>
* <li>Establishes connection with MDM server</li>
* <li>Creates a session for the targeted repository</li>
* <li>Authenticates the session</li>
* <li>Selects the main table</li>
* <li>Creates the new field</li>
* <li>Modifies the new field</li>
* <li>Destroys the session</li>
* </ol>
* Commands used:<br>
* <code>CreateRepositorySessionCommand</code><br>
* <code>AuthenticateRepositorySessionCommand</code><br>
* <code>GetTableListCommand</code><br>
* <code>GetFieldListCommand</code><br>
* <code>GetRepositoryRegionListCommand</code><br>
* <code>CreateFieldCommand</code><br>
* <code>ModifyFieldCommand</code><br>
* <code>DestroySessionCommand</code><br>
* <br>
* <a href="ModifyField.java">Source code for ModifyField.java</a>
*/
public class ModifyField {
private ModifyField() {
}

/**
* Creates a multi-lingual string based on the list of regions.
* @param regionPropertiesList the list of regions
* @param baseString the base string
* @return a multi-lingual string
*/
private static MultilingualString createMultilingualString(RegionProperties[] regionPropertiesList, String baseString) {
MultilingualString mlString = new MultilingualString();
for (int i = 0; i < regionPropertiesList.length; i++) {
Locale locale = regionPropertiesList[i].getLocale();
String regionCode = regionPropertiesList[i].getRegionCode();
String string = baseString + "_" + locale.getLanguage() + "_" + locale.getCountry();
RegionalString regionalString = new RegionalString(string, regionCode);
mlString.set(regionalString);
}

return mlString;
}

/**
* Creates a fixed-width field.
* @param tableId the table from which the field will be create in
* @param regionPropertiesList the list of regions
* @return the new fixed-width field
*/
private static FixedWidthTextFieldProperties createFixedWidthField(TableId tableId, RegionProperties[] regionPropertiesList) {
MultilingualString fieldName = createMultilingualString(regionPropertiesList, "NewField" + System.currentTimeMillis());

FixedWidthTextFieldProperties field = new FixedWidthTextFieldProperties();
field.setTableId(tableId);
field.setName(fieldName);
field.setKeywordType(FieldKeywordType.NORMAL);
field.setMultiLingual(true);
field.setModifyOnce(true);
field.setRequired(true);
field.setSortType(FieldSortType.CASE_SENSITIVE);
field.setWidth(60);

return field;
}

public static void main(String[] args) {
// create connection pool to a MDM server
String tag = "LOCALHOST";
ConnectionPool connections = null;
try {
connections = ConnectionPoolFactory.getInstance(tag);
} catch (ConnectionException e) {
e.printStackTrace();
return;
}

// specify the repository to use
// alternatively, a repository identifier can be obtain from the GetMountedRepositoryListCommand
String repositoryName = "TestRepos";
String dbmsName = "LOCALHOST";
RepositoryIdentifier reposId = new RepositoryIdentifier(repositoryName, dbmsName, DBMSType.MS_SQL);

// create a repository session
CreateRepositorySessionCommand sessionCommand = new CreateRepositorySessionCommand(connections);
sessionCommand.setRepositoryIdentifier(reposId );
try {
sessionCommand.execute();
} catch (CommandException e) {
e.printStackTrace();
return;
}
String sessionId = sessionCommand.getRepositorySession();

// authenticate the repository session
String userName = "Admin";
String userPassword = "";
AuthenticateRepositorySessionCommand authCommand = new AuthenticateRepositorySessionCommand(connections);
authCommand.setSession(sessionId);
authCommand.setUserName(userName);
authCommand.setUserPassword(userPassword);
try {
authCommand.execute();
} catch (CommandException e) {
e.printStackTrace();
return;
}

// retrieve the list of tables and pick the main table for creating a new field
GetTableListCommand tableListCommand = new GetTableListCommand(connections);
tableListCommand.setSession(sessionId);
try {
tableListCommand.execute();
} catch (CommandException e) {
e.printStackTrace();
return;
}

TableProperties mainTable = null;
TableProperties[] tables = tableListCommand.getTables();
for (int i = 0; i < tables.length; i++) {
if (tables[i].getType() == TableProperties.MAIN)
mainTable = tables[i];
}

// retrieve the list of fields from the main table
// this is useful for resolving conflicting field names the new field might create
GetFieldListCommand getFieldListCommand = new GetFieldListCommand(connections);
getFieldListCommand.setSession(sessionId);
getFieldListCommand.setTableId(mainTable.getId());
try {
getFieldListCommand.execute();
} catch (CommandException e) {
e.printStackTrace();
return;
}
// get the change stamp
// this is required when we make any kind of changes to the repository
int changeStamp = getFieldListCommand.getChangeStamp();

// retrieve the available regions (languages) for the repository
// we need this to set up the field name for each region
GetRepositoryRegionListCommand getReposRegionListCommand = new GetRepositoryRegionListCommand(connections);
getReposRegionListCommand.setRepositoryIdentifier(reposId);
try {
getReposRegionListCommand.execute();
} catch (CommandException e) {
e.printStackTrace();
return;
}
RegionProperties[] regionPropertiesList = getReposRegionListCommand.getRegions();

// set up the field to create
FieldProperties newField = createFixedWidthField(mainTable.getId(), regionPropertiesList);

// create the new field
CreateFieldCommand createFieldCommand = new CreateFieldCommand(connections);
createFieldCommand.setSession(sessionId);
createFieldCommand.setField(newField);
createFieldCommand.setInChangeStamp(changeStamp);
try {
createFieldCommand.execute();
} catch (CommandException e) {
e.printStackTrace();
return;
}

// a new change stamp is required.
changeStamp = createFieldCommand.getOutChangeStamp();

// setup the field for modification
FixedWidthTextFieldProperties modifiedField = (FixedWidthTextFieldProperties) newField;
modifiedField.setWidth(100);
modifiedField.setRequired(false);

// modify the field
ModifyFieldCommand modifyFieldCommand = new ModifyFieldCommand(connections);
modifyFieldCommand.setSession(sessionId);
modifyFieldCommand.setInChangeStamp(changeStamp);
modifyFieldCommand.setField(modifiedField);
try {
modifyFieldCommand.execute();
} catch (CommandException e) {
e.printStackTrace();
return;
}

// finally destroy the session
DestroySessionCommand destroySessionCommand = new DestroySessionCommand(connections);
destroySessionCommand.setSession(sessionId);
try {
destroySessionCommand.execute();
} catch (CommandException e) {
e.printStackTrace();
return;
}
}
}

Retrive limited records and modify attributes

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
public void testSearch(HashSet itemList) {
long startTime = System.currentTimeMillis();
FieldSearchDimension productIDSearchDimension = new FieldSearchDimension(repSchema.getFieldId(TABLEID_PRODUCTS, "ProductID"));

Set idList = itemList;
Iterator<String> it = idList.iterator();
int lastPageIndex = idList.size() % PAGE_SIZE == 0 ? idList.size() / PAGE_SIZE : idList.size() / PAGE_SIZE + 1;
ResultDefinition rd = new ResultDefinition(tableId);
FieldId[] fieldIds = new FieldId[]{fieldProductID, fieldIdOriDB, fieldIdSentToEnovia, fieldIdSendToPCIR, fieldIdP20Relevant};
rd.setSelectFields(fieldIds);
Search search = new Search(tableId);
RetrieveLimitedRecordsCommand rlrc = new RetrieveLimitedRecordsCommand(connection);
int pageIdx = 0;
rlrc.setPageSize(PAGE_SIZE);
rlrc.setResultDefinition(rd);
int updateConuntNEPEPLM = 0;
int updateConuntPCIR = 0;
int updateConuntP20 = 0;
int updateConuntSentToEnovia = 0;
for (int pageIndex = 0; pageIndex < lastPageIndex; pageIndex++) {
int count = 0;
Set<String> searchSet = new HashSet<String>(idList.size());

for (count = 0; count < PAGE_SIZE && idList.size() > 0; count++) {
String s = it.next();
searchSet.add(s);
SearchConstraint scProductId = new TextSearchConstraint(s, TextSearchConstraint.EQUALS);
search.addSearchItem(productIDSearchDimension, scProductId);
it.remove();
}

rlrc.setSearch(search);
rlrc.setSession(session);
rlrc.setPageIndex(0);
try {
rlrc.execute();
} catch (CommandException e) {
e.printStackTrace();
logger.error(e.getMessage());
return;
}
Record[] records = rlrc.getRecords().getRecords();
for (Record record : records) {
try {
if (Boolean.valueOf(String.valueOf(record.getFieldValue(fieldIdSendToPCIR)))) {
updateConuntPCIR++;
record.setFieldValue(fieldIdSendToPCIR, new BooleanValue(Boolean.valueOf(VALUE_Send_To_PCIR)));
}
if (Boolean.valueOf(String.valueOf(record.getFieldValue(fieldIdP20Relevant)))) {
updateConuntP20++;
record.setFieldValue(fieldIdP20Relevant, new BooleanValue(Boolean.valueOf(VALUE_P20_Relevant)));
}
record.setFieldValue(fieldIdSentToEnovia, new BooleanValue(Boolean.valueOf(VALUE_Sent_To_Enovia)));
if (Boolean.valueOf(String.valueOf(record.getFieldValue(fieldIdSentToEnovia)))) {
updateConuntSentToEnovia++;
}
record.setFieldValue(fieldIdOriDB, new LookupValue(recordOriDBNEP.getId()));
if (!"NEP".equalsIgnoreCase(String.valueOf(record.getLookupDisplayValue(fieldIdOriDB)))) {
updateConuntNEPEPLM++;
}

logger.debug("item" + record.getFieldValue(fieldProductID) + ",pcir:" + String.valueOf(record.getFieldValue(fieldIdSendToPCIR)) + ",oridb:" + String.valueOf(record.getLookupDisplayValue(fieldIdOriDB)));
logger.debug("sent to enovia:" + String.valueOf(record.getFieldValue(fieldIdSentToEnovia)));
logger.debug(",p20:" + String.valueOf(record.getFieldValue(fieldIdP20Relevant)));

} catch (Exception e) {
e.printStackTrace();
logger.error("MDM Value Type Exception::" + e.getMessage());
}
}
ModifyRecordsCommand modifyRecordsCommand = new ModifyRecordsCommand(connection);
modifyRecordsCommand.setRecords(records);
modifyRecordsCommand.setSession(session);
modifyRecordsCommand.setTableId(tableId);
try {
modifyRecordsCommand.execute();
} catch (CommandException e) {
e.printStackTrace();
logger.error(e.getMessage());
}

int[] crFailed = modifyRecordsCommand.getResult().getFailedRecords();

if (crFailed != null && crFailed.length > 0) {
logger.info("modifyRecords: No. of records failed:" + crFailed.length);
for (int i = 0; i < crFailed.length; i++) {
int j = crFailed[i];
logger.info("modifyRecords: failed messages:" + modifyRecordsCommand.getResult().getFailedRecordMessage(j));
}
}

//Get Succeded Records
int crSuccess[] = modifyRecordsCommand.getResult().getSucceededRecords();
if (crSuccess != null && crSuccess.length > 0)
logger.info("modifyRecords: No. of records succeeded:" + crSuccess.length);

}
DestroySessionCommand destroySessionCommand = new DestroySessionCommand(connection);
destroySessionCommand.setSession(session);

try {
destroySessionCommand.execute();
} catch (CommandException e) {
e.printStackTrace();
logger.error(e.getMessage());
return;
}
long endTime = System.currentTimeMillis();

logger.info("update nep item number::" + updateConuntNEPEPLM);
logger.info("update sent to enovia item number::" + updateConuntSentToEnovia);
logger.info("update P20 Relevant item number::" + updateConuntP20);
logger.info("update attribute send to pcir to N,,Total number:" + updateConuntPCIR);
logger.info("update attribute values done in alpim, total time::" + (endTime - startTime) / 1000 + "s");
}

Got detail of repository

svn info

change svn branch within same repository

svn switch NEW_BRANCH_URL
svn cleanup

change location with different repository

svn switch --relocate CURRENT_URL NEW_URL

Note: Be careful when using the –relocate option. If you mistype the argument, you might end up creating nonsensical URLs within your working copy that render the whole workspace unusable and tricky to fix. It’s also important to understand exactly when one should or shouldn’t use –relocate. Here’s the rule of thumb:

  1. If the working copy needs to reflect a new directory within the repository, use just svn switch.

  2. If the working copy still reflects the same repository directory, but the location of the repository itself has changed, use svn switch with the –relocate option.

StringUtil in Enovia 2013xE

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
package com.matrixone.apps.domain.util;

import com.matrixone.util.Security;
import java.util.ArrayList;
import java.util.Iterator;
import java.util.List;
import java.util.StringTokenizer;
import matrix.util.Mime64;
import matrix.util.StringItr;
import matrix.util.StringList;

public abstract class StringUtil {
private static final String FIELD_SEPARATOR = "~";
private static final String RECORD_SEPARATOR = ";";

StringUtil() {
}

public static final String join(StringList var0, String var1) {
if (var0.size() == 1) {
return (String)var0.elementAt(0);
} else {
if (var1 == null) {
var1 = "~";
}

int var2 = 0;

StringItr var3;
for(var3 = new StringItr(var0); var3.next(); var2 += var3.obj().length()) {
}

StringBuffer var4 = new StringBuffer(var2 + var0.size() * var1.length());
var3.reset();
if (var3.next()) {
var4.append(var3.obj());
}

while(var3.next()) {
var4.append(var1);
var4.append(var3.obj());
}

return var4.toString();
}
}

public static final String join(String[] var0, String var1) {
if (var0.length == 1) {
return var0[0];
} else {
if (var1 == null) {
var1 = "~";
}

int var2 = 0;

for(int var3 = 0; var3 < var0.length; ++var3) {
var2 += var0[var3].length();
}

StringBuffer var5 = new StringBuffer(var2 + var0.length * var1.length());

for(int var4 = 0; var4 < var0.length; ++var4) {
if (var4 > 0) {
var5.append(var1);
}

var5.append(var0[var4]);
}

return var5.toString();
}
}

public static final String join(List var0, String var1, String var2) {
if (var1 == null) {
var1 = "~";
}

if (var2 == null) {
var2 = ";";
}

StringBuffer var3 = new StringBuffer();
Iterator var4 = var0.iterator();
if (var4.hasNext()) {
var3.append(join((StringList)var4.next(), var1));
}

while(var4.hasNext()) {
var3.append(var2);
var3.append(join((StringList)var4.next(), var1));
}

return var3.toString();
}

public static final String join(StringList var0, StringList var1, String var2, String var3) {
if (var2 == null) {
var2 = "~";
}

if (var3 == null) {
var3 = ";";
}

StringBuffer var4 = new StringBuffer();
Iterator var5 = var0.iterator();
Iterator var6 = var1.iterator();

while(var5.hasNext() && var6.hasNext()) {
var4.append((String)var5.next());
var4.append(var2);
var4.append((String)var6.next());
var4.append(var3);
}

return var4.toString();
}

public static final StringList split(String var0, String var1) {
if (var0 == null) {
return new StringList(0);
} else {
if (var1 == null) {
var1 = "~";
}

StringTokenizer var2 = new StringTokenizer(var0, var1, true);
StringList var3 = new StringList(var2.countTokens());

String var4;
String var5;
for(var5 = null; var2.hasMoreTokens(); var5 = var4) {
var4 = var2.nextToken();
if (var1.equals(var4)) {
if (var1.equals(var5)) {
var3.addElement("");
}
} else {
var3.addElement(var4);
}
}

if (var1.equals(var5)) {
var3.addElement("");
}

return var3;
}
}

public static final List split(String var0, String var1, String var2) {
if (var0 == null) {
return new StringList(0);
} else {
if (var1 == null) {
var1 = "~";
}

if (var2 == null) {
var2 = ";";
}

ArrayList var3 = new ArrayList();
Iterator var4 = split(var0, var2).iterator();

while(var4.hasNext()) {
StringList var5 = split((String)var4.next(), var1);
var3.add(var5);
}

return var3;
}
}

public static final StringList splitString(String var0, String var1) throws Exception {
StringList var2 = new StringList();
String var3 = null;
int var4 = 0;
int var5 = var1.length();
boolean var6 = false;
if (var0 == null) {
return var2;
} else {
if (var1 == null) {
var1 = "~";
}

int var7 = var0.length();

for(int var8 = 0; var4 != -1 && var4 < var7; var2.addElement(var3.trim())) {
int var9;
if (var4 == 0 && var8 == 0) {
var9 = var4;
} else {
var9 = var4 + var5;
}

++var8;
var4 = var0.indexOf(var1, var9);
if (var4 != -1) {
var3 = var0.substring(var9, var4);
} else {
var3 = var0.substring(var9, var7);
}

if (var3 == null) {
var3 = "";
}
}

return var2;
}
}

public static final String encrypt(String var0) throws Exception {
return Mime64.encode(Security.encrypt(var0.getBytes()));
}

public static final String decrypt(String var0) throws Exception {
return new String(Security.deCrypt(Mime64.decode(var0)));
}
}

package com.sap.mdm.examples;

import com.sap.mdm.commands.AuthenticateServerSessionCommand;
import com.sap.mdm.commands.CommandException;
import com.sap.mdm.commands.CreateServerSessionCommand;
import com.sap.mdm.net.ConnectionException;
import com.sap.mdm.net.ConnectionPool;
import com.sap.mdm.net.ConnectionPoolFactory;
import com.sap.mdm.server.commands.StopServerCommand;

/*
 * Copyright © 2004-2006 by SAP AG.
 * All Rights Reserved.
 * 
 * SAP, R/3, mySAP, mySAP.com, xApps, xApp, SAP NetWeaver, and other SAP
 * products and services mentioned herein as well as their respective logos are
 * trademarks or registered trademarks of SAP AG in Germany and in several other
 * countries all over the world. All other product and service names mentioned
 * are the trademarks of their respective companies. Data contained in this
 * document serves informational purposes only. National product specifications
 * may vary.
 * 
 * These materials are subject to change without notice. These materials are
 * provided by SAP AG and its affiliated companies (SAP Group) for informational
 * purposes only, without representation or warranty of any kind, and SAP Group
 * shall not be liable for errors or omissions with respect to the materials.
 * The only warranties for SAP Group products and services are those that are
 * set forth in the express warranty statements accompanying such products and
 * services, if any. Nothing herein should be construed as constituting an
 * additional warranty.
 * 
 */

/**
 * This example demonstrates shutting down the MDM server. The steps are:
 * <ol>
 * <li>Establishes connection with the MDM server</li>
 * <li>Creates a server session</li>
 * <li>Authenticates the server session</li>
 * <li>Stops the MDM server</li>
 * </ol>
 * Commands used:<br>
 * <code>CreateServerSessionCommand</code><br>
 * <code>AuthenticateServerSessionCommand</code><br>
 * <code>StopServerCommand</code><br>
 * <br>
 * <a href="StopServer.java">Source code for StopServer.java</a>
 */
public class StopServer {        
private StopServer() {
}

public static void main(String[] args) {
    // create connection pool
    String connectionTag = "LOCALHOST";
    ConnectionPool connections = null;
    try {
        connections = ConnectionPoolFactory.getInstance(connectionTag);
    } catch (ConnectionException e) {
        e.printStackTrace();
        return;
    }

    // create server session
    CreateServerSessionCommand sessionCommand = new CreateServerSessionCommand(connections);
    try {
        sessionCommand.execute();
    } catch (CommandException e) {
        e.printStackTrace();
        return;
    }        
    String sessionId = sessionCommand.getSession();
    
    // authenticate the repository session
    String userName = "Admin";
    String userPassword = "";
    AuthenticateServerSessionCommand authCommand = new AuthenticateServerSessionCommand(connections);
    authCommand.setSession(sessionId);
    authCommand.setUserName(userName);
    authCommand.setUserPassword(userPassword);
    try {
        authCommand.execute();
    } catch (CommandException e) {
        e.printStackTrace();
        return;
    }        

    // stop the MDM server
    StopServerCommand stopServerCommand = new StopServerCommand(connections);
    stopServerCommand.setSession(sessionId);
    try {
        stopServerCommand.execute();
    } catch (CommandException e) {
        e.printStackTrace();
        return;
    }
}
}

Redis 命令

Redis 命令用于在 redis 服务上执行操作。

要在 redis 服务上执行命令需要一个 redis 客户端。

语法
Redis 客户端的基本语法为:

1
$ redis-cli

实例
以下实例讲解了如何启动 redis 客户端:

启动 redis 服务器,打开终端并输入命令 redis-cli,该命令会连接本地的 redis 服务。

1
2
3
4
5
6
$ redis-cli
redis 127.0.0.1:6379>
redis 127.0.0.1:6379> PING


PONG

在以上实例中我们连接到本地的 redis 服务并执行 PING 命令,该命令用于检测 redis 服务是否启动。

在远程服务上执行命令
如果需要在远程 redis 服务上执行命令,同样我们使用的也是 redis-cli 命令。

语法

1
$ redis-cli -h host -p port -a password

实例
以下实例演示了如何连接到主机为 127.0.0.1,端口为 6379 ,密码为 mypass 的 redis 服务上。

1
2
3
4
5
$redis-cli -h 127.0.0.1 -p 6379 -a "mypass"
redis 127.0.0.1:6379>
redis 127.0.0.1:6379> PING

PONG

Redis 数据类型

Redis支持五种数据类型:string(字符串),hash(哈希),list(列表),set(集合)及zset(sorted set:有序集合)。

String(字符串)

string 是 redis 最基本的类型,你可以理解成与 Memcached 一模一样的类型,一个 key 对应一个 value。

string 类型是二进制安全的。意思是 redis 的 string 可以包含任何数据。比如jpg图片或者序列化的对象。

string 类型是 Redis 最基本的数据类型,string 类型的值最大能存储 512MB。

实例

1
2
3
4
redis 127.0.0.1:6379> SET runoob "菜鸟教程"
OK
redis 127.0.0.1:6379> GET runoob
"菜鸟教程"

在以上实例中我们使用了 Redis 的 SET 和 GET 命令。键为 runoob,对应的值为 菜鸟教程。

注意:一个键最大能存储 512MB。

Hash(哈希)

Redis hash 是一个键值(key=>value)对集合。

Redis hash 是一个 string 类型的 field 和 value 的映射表,hash 特别适合用于存储对象。

实例
DEL runoob 用于删除前面测试用过的 key,不然会报错:(error) WRONGTYPE Operation against a key holding the wrong kind of value

1
2
3
4
5
6
7
redis 127.0.0.1:6379> DEL runoob
redis 127.0.0.1:6379> HMSET runoob field1 "Hello" field2 "World"
"OK"
redis 127.0.0.1:6379> HGET runoob field1
"Hello"
redis 127.0.0.1:6379> HGET runoob field2
"World"

实例中我们使用了 Redis HMSET, HGET 命令,HMSET 设置了两个 field=>value 对, HGET 获取对应 field 对应的 value。

每个 hash 可以存储 232 -1 键值对(40多亿)。
List(列表)
Redis 列表是简单的字符串列表,按照插入顺序排序。你可以添加一个元素到列表的头部(左边)或者尾部(右边)。

实例
redis 127.0.0.1:6379> DEL runoob
redis 127.0.0.1:6379> lpush runoob redis
(integer) 1
redis 127.0.0.1:6379> lpush runoob mongodb
(integer) 2
redis 127.0.0.1:6379> lpush runoob rabitmq
(integer) 3
redis 127.0.0.1:6379> lrange runoob 0 10

  1. “rabitmq”
  2. “mongodb”
  3. “redis”
    redis 127.0.0.1:6379>
    列表最多可存储 2^32 - 1 元素 (4294967295, 每个列表可存储40多亿)。

Set(集合)

Redis 的 Set 是 string 类型的无序集合。

集合是通过哈希表实现的,所以添加,删除,查找的复杂度都是 O(1)。

sadd 命令

添加一个 string 元素到 key 对应的 set 集合中,成功返回 1,如果元素已经在集合中返回 0。

1
sadd key member

实例

1
2
3
4
5
6
7
8
9
10
11
12
13
14
redis 127.0.0.1:6379> DEL runoob
redis 127.0.0.1:6379> sadd runoob redis
(integer) 1
redis 127.0.0.1:6379> sadd runoob mongodb
(integer) 1
redis 127.0.0.1:6379> sadd runoob rabitmq
(integer) 1
redis 127.0.0.1:6379> sadd runoob rabitmq
(integer) 0
redis 127.0.0.1:6379> smembers runoob

1) "redis"
2) "rabitmq"
3) "mongodb"

注意:以上实例中 rabitmq 添加了两次,但根据集合内元素的唯一性,第二次插入的元素将被忽略。

集合中最大的成员数为 2^32 - 1(4294967295, 每个集合可存储40多亿个成员)。

zset(sorted set:有序集合)

Redis zset 和 set 一样也是string类型元素的集合,且不允许重复的成员。
不同的是每个元素都会关联一个double类型的分数。redis正是通过分数来为集合中的成员进行从小到大的排序。

zset的成员是唯一的,但分数(score)却可以重复。

zadd 命令

添加元素到集合,元素在集合中存在则更新对应score

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
zadd key score member 
实例
redis 127.0.0.1:6379> DEL runoob
redis 127.0.0.1:6379> zadd runoob 0 redis
(integer) 1
redis 127.0.0.1:6379> zadd runoob 0 mongodb
(integer) 1
redis 127.0.0.1:6379> zadd runoob 0 rabitmq
(integer) 1
redis 127.0.0.1:6379> zadd runoob 0 rabitmq
(integer) 0
redis 127.0.0.1:6379> > ZRANGEBYSCORE runoob 0 1000
1) "mongodb"
2) "rabitmq"
3) "redis"

Redis keys 命令

下表给出了与 Redis 键相关的基本命令:

序号 命令 描述
1 DEL key 该命令用于在 key 存在时删除 key。
2 DUMP key 序列化给定 key ,并返回被序列化的值。
3 EXISTS key 检查给定 key 是否存在。
4 EXPIRE key seconds 为给定 key 设置过期时间,以秒计。
5 EXPIREAT key timestamp EXPIREAT 的作用和 EXPIRE 类似,都用于为 key 设置过期时间。 不同在于 EXPIREAT 命令接受的时间参数是 UNIX 时间戳(unix timestamp)。
6 PEXPIRE key milliseconds 设置 key 的过期时间以毫秒计。
7 PEXPIREAT key milliseconds-timestamp 设置 key 过期时间的时间戳(unix timestamp) 以毫秒计
8 KEYS pattern 查找所有符合给定模式( pattern)的 key 。
9 MOVE key db 将当前数据库的 key 移动到给定的数据库 db 当中。
10 PERSIST key 移除 key 的过期时间,key 将持久保持。
11 PTTL key 以毫秒为单位返回 key 的剩余的过期时间。
12 TTL key 以秒为单位,返回给定 key 的剩余生存时间(TTL, time to live)。
13 RANDOMKEY 从当前数据库中随机返回一个 key 。
14 RENAME key newkey 修改 key 的名称
15 RENAMENX key newkey 仅当 newkey 不存在时,将 key 改名为 newkey 。
16 SCAN cursor [MATCH pattern] [COUNT count] 迭代数据库中的数据库键。
17 TYPE key 返回 key 所储存的值的类型。

Redis 字符串命令

下表列出了常用的 redis 字符串命令:

序号 命令 描述
1 SET key value 设置指定 key 的值
2 GET key 获取指定 key 的值。
3 GETRANGE key start end 返回 key 中字符串值的子字符
4 GETSET key value 将给定 key 的值设为 value ,并返回 key 的旧值(old value)。
5 GETBIT key offset 对 key 所储存的字符串值,获取指定偏移量上的位(bit)。
6 MGET key1 [key2..] 获取所有(一个或多个)给定 key 的值。
7 SETBIT key offset value 对 key 所储存的字符串值,设置或清除指定偏移量上的位(bit)。
8 SETEX key seconds value 将值 value 关联到 key ,并将 key 的过期时间设为 seconds (以秒为单位)。
9 SETNX key value 只有在 key 不存在时设置 key 的值。
10 SETRANGE key offset value 用 value 参数覆写给定 key 所储存的字符串值,从偏移量 offset 开始。
11 STRLEN key 返回 key 所储存的字符串值的长度。
12 MSET key value [key value …] 同时设置一个或多个 key-value 对。
13 MSETNX key value [key value …] 同时设置一个或多个 key-value 对,当且仅当所有给定 key 都不存在。
14 PSETEX key milliseconds value 这个命令和 SETEX 命令相似,但它以毫秒为单位设置 key 的生存时间,而不是像 SETEX 命令那样,以秒为单位。
15 INCR key 将 key 中储存的数字值增一。
16 INCRBY key increment 将 key 所储存的值加上给定的增量值(increment) 。
17 INCRBYFLOAT key increment 将 key 所储存的值加上给定的浮点增量值(increment) 。
18 DECR key 将 key 中储存的数字值减一。
19 DECRBY key decrement key 所储存的值减去给定的减量值(decrement) 。
20 APPEND key value 如果 key 已经存在并且是一个字符串, APPEND 命令将指定的 value 追加到该 key 原来值(value)的末尾。

Redis hash 命令

下表列出了 redis hash 基本的相关命令:

序号 命令 描述
1 HDEL key field1 [field2] 删除一个或多个哈希表字段
2 HEXISTS key field 查看哈希表 key 中,指定的字段是否存在。
3 HGET key field 获取存储在哈希表中指定字段的值。
4 HGETALL key 获取在哈希表中指定 key 的所有字段和值
5 HINCRBY key field increment 为哈希表 key 中的指定字段的整数值加上增量 increment 。
6 HINCRBYFLOAT key field increment 为哈希表 key 中的指定字段的浮点数值加上增量 increment 。
7 HKEYS key 获取所有哈希表中的字段
8 HLEN key 获取哈希表中字段的数量
9 HMGET key field1 [field2] 获取所有给定字段的值
10 HMSET key field1 value1 [field2 value2 ] 同时将多个 field-value (域-值)对设置到哈希表 key 中。
11 HSET key field value 将哈希表 key 中的字段 field 的值设为 value 。
12 HSETNX key field value 只有在字段 field 不存在时,设置哈希表字段的值。
13 HVALS key 获取哈希表中所有值。
14 HSCAN key cursor [MATCH pattern] [COUNT count] 迭代哈希表中的键值对。

Redis 列表命令

下表列出了列表相关的基本命令:

序号 命令 描述
1 BLPOP key1 [key2 ] timeout 移出并获取列表的第一个元素, 如果列表没有元素会阻塞列表直到等待超时或发现可弹出元素为止。
2 BRPOP key1 [key2 ] timeout 移出并获取列表的最后一个元素, 如果列表没有元素会阻塞列表直到等待超时或发现可弹出元素为止。
3 BRPOPLPUSH source destination timeout 从列表中弹出一个值,将弹出的元素插入到另外一个列表中并返回它; 如果列表没有元素会阻塞列表直到等待超时或发现可弹出元素为止。
4 LINDEX key index 通过索引获取列表中的元素
5 LINSERT key BEFORE AFTER pivot value
6 LLEN key 获取列表长度
7 LPOP key 移出并获取列表的第一个元素
8 LPUSH key value1 [value2] 将一个或多个值插入到列表头部
9 LPUSHX key value 将一个值插入到已存在的列表头部
10 LRANGE key start stop 获取列表指定范围内的元素
11 LREM key count value 移除列表元素
12 LSET key index value 通过索引设置列表元素的值
13 LTRIM key start stop 对一个列表进行修剪(trim),就是说,让列表只保留指定区间内的元素,不在指定区间之内的元素都将被删除。
14 RPOP key 移除列表的最后一个元素,返回值为移除的元素。
15 RPOPLPUSH source destination 移除列表的最后一个元素,并将该元素添加到另一个列表并返回
16 RPUSH key value1 [value2] 在列表中添加一个或多个值
17 RPUSHX key value 为已存在的列表添加值

Redis 集合命令

下表列出了 Redis 集合基本命令:

序号 命令 描述
1 SADD key member1 [member2] 向集合添加一个或多个成员
2 SCARD key 获取集合的成员数
3 SDIFF key1 [key2] 返回第一个集合与其他集合之间的差异。
4 SDIFFSTORE destination key1 [key2] 返回给定所有集合的差集并存储在 destination 中
5 SINTER key1 [key2] 返回给定所有集合的交集
6 SINTERSTORE destination key1 [key2] 返回给定所有集合的交集并存储在 destination 中
7 SISMEMBER key member 判断 member 元素是否是集合 key 的成员
8 SMEMBERS key 返回集合中的所有成员
9 SMOVE source destination member 将 member 元素从 source 集合移动到 destination 集合
10 SPOP key 移除并返回集合中的一个随机元素
11 SRANDMEMBER key [count] 返回集合中一个或多个随机数
12 SREM key member1 [member2] 移除集合中一个或多个成员
13 SUNION key1 [key2] 返回所有给定集合的并集
14 SUNIONSTORE destination key1 [key2] 所有给定集合的并集存储在 destination 集合中
15 SSCAN key cursor [MATCH pattern] [COUNT count] 迭代集合中的元素

Redis 有序集合命令

下表列出了 redis 有序集合的基本命令:

序号| 命令 |描述
1| ZADD key score1 member1 [score2 member2]|向有序集合添加一个或多个成员,或者更新已存在成员的分数
2| ZCARD key|获取有序集合的成员数
3| ZCOUNT key min max|计算在有序集合中指定区间分数的成员数
4| ZINCRBY key increment member|有序集合中对指定成员的分数加上增量 increment
5| ZINTERSTORE destination numkeys key [key …]|计算给定的一个或多个有序集的交集并将结果集存储在新的有序集合 destination 中
6| ZLEXCOUNT key min max|在有序集合中计算指定字典区间内成员数量
7| ZRANGE key start stop [WITHSCORES]|通过索引区间返回有序集合指定区间内的成员
8| ZRANGEBYLEX key min max [LIMIT offset count]|通过字典区间返回有序集合的成员
9| ZRANGEBYSCORE key min max [WITHSCORES] [LIMIT]|通过分数返回有序集合指定区间内的成员
10| ZRANK key member|返回有序集合中指定成员的索引
11| ZREM key member [member …]|移除有序集合中的一个或多个成员
12| ZREMRANGEBYLEX key min max|移除有序集合中给定的字典区间的所有成员
13| ZREMRANGEBYRANK key start stop|移除有序集合中给定的排名区间的所有成员
14| ZREMRANGEBYSCORE key min max|移除有序集合中给定的分数区间的所有成员
15| ZREVRANGE key start stop [WITHSCORES]|返回有序集中指定区间内的成员,通过索引,分数从高到低
16| ZREVRANGEBYSCORE key max min [WITHSCORES]|返回有序集中指定分数区间内的成员,分数从高到低排序
17| ZREVRANK key member|返回有序集合中指定成员的排名,有序集成员按分数值递减(从大到小)排序
18| ZSCORE key member|返回有序集中,成员的分数值
19| ZUNIONSTORE destination numkeys key [key …]|计算给定的一个或多个有序集的并集,并存储在新的 key 中
20| ZSCAN key cursor [MATCH pattern] [COUNT count]|迭代有序集合中的元素(包括元素成员和元素分值)

Redis HyperLogLog 命令

Redis HyperLogLog 是用来做基数统计的算法,HyperLogLog 的优点是,在输入元素的数量或者体积非常非常大时,计算基数所需的空间总是固定 的、并且是很小的。

在 Redis 里面,每个 HyperLogLog 键只需要花费 12 KB 内存,就可以计算接近 2^64 个不同元素的基 数。这和计算基数时,元素越多耗费内存就越多的集合形成鲜明对比。

但是,因为 HyperLogLog 只会根据输入元素来计算基数,而不会储存输入元素本身,所以 HyperLogLog 不能像集合那样,返回输入的各个元素。

什么是基数?

比如数据集 {1, 3, 5, 7, 5, 7, 8}, 那么这个数据集的基数集为 {1, 3, 5 ,7, 8}, 基数(不重复元素)为5。 基数估计就是在误差可接受的范围内,快速计算基数。

下表列出了 redis HyperLogLog 的基本命令:

序号 命令 描述
1 PFADD key element [element …] 添加指定元素到 HyperLogLog 中。
2 PFCOUNT key [key …] 返回给定 HyperLogLog 的基数估算值。
3 PFMERGE destkey sourcekey [sourcekey …] 将多个 HyperLogLog 合并为一个 HyperLogLog

Redis 发布订阅命令

下表列出了 redis 发布订阅常用命令:

序号 命令 描述
1 PSUBSCRIBE pattern [pattern …] 订阅一个或多个符合给定模式的频道。
2 PUBSUB subcommand [argument [argument …]] 查看订阅与发布系统状态。
3 PUBLISH channel message 将信息发送到指定的频道。
4 PUNSUBSCRIBE [pattern [pattern …]] 退订所有给定模式的频道。
5 SUBSCRIBE channel [channel …] 订阅给定的一个或多个频道的信息。
6 UNSUBSCRIBE [channel [channel …]] 指退订给定的频道。

Redis 事务命令

下表列出了 redis 事务的相关命令:

序号 命令 描述
1 DISCARD 取消事务,放弃执行事务块内的所有命令。
2 EXEC 执行所有事务块内的命令。
3 MULTI 标记一个事务块的开始。
4 UNWATCH 取消 WATCH 命令对所有 key 的监视。
5 WATCH key [key …] 监视一个(或多个) key ,如果在事务执行之前这个(或这些) key 被其他命令所改动,那么事务将被打断。

Redis 脚本命令

下表列出了 redis 脚本常用命令:

序号| 命令 |描述
1| EVAL script numkeys key [key …] arg [arg …]|执行 Lua 脚本。
2| EVALSHA sha1 numkeys key [key …] arg [arg …]|执行 Lua 脚本。
3| SCRIPT EXISTS script [script …]|查看指定的脚本是否已经被保存在缓存当中。
4| SCRIPT FLUSH|从脚本缓存中移除所有脚本。
5| SCRIPT KILL|杀死当前正在运行的 Lua 脚本。
6| SCRIPT LOAD script|将脚本 script 添加到脚本缓存中,但并不立即执行这个脚本。

Redis 连接命令

下表列出了 redis 连接的基本命令:

序号| 命令 |描述
1| AUTH password|验证密码是否正确
2| ECHO message|打印字符串
3| PING|查看服务是否运行
4| QUIT|关闭当前连接
5| SELECT index|切换到指定的数据库

Redis 服务器命令

下表列出了 redis 服务器的相关命令:

序号 命令 描述
1 BGREWRITEAOF 异步执行一个 AOF(AppendOnly File) 文件重写操作
2 BGSAVE 在后台异步保存当前数据库的数据到磁盘
3 CLIENT KILL [ip:port] [ID client-id] 关闭客户端连接
4 CLIENT LIST 获取连接到服务器的客户端连接列表
5 CLIENT GETNAME 获取连接的名称
6 CLIENT PAUSE timeout 在指定时间内终止运行来自客户端的命令
7 CLIENT SETNAME connection-name 设置当前连接的名称
8 CLUSTER SLOTS 获取集群节点的映射数组
9 COMMAND 获取 Redis 命令详情数组
10 COMMAND COUNT 获取 Redis 命令总数
11 COMMAND GETKEYS 获取给定命令的所有键
12 TIME 返回当前服务器时间
13 COMMAND INFO command-name [command-name …] 获取指定 Redis 命令描述的数组
14 CONFIG GET parameter 获取指定配置参数的值
15 CONFIG REWRITE 对启动 Redis 服务器时所指定的 redis.conf 配置文件进行改写
16 CONFIG SET parameter value 修改 redis 配置参数,无需重启
17 CONFIG RESETSTAT 重置 INFO 命令中的某些统计数据
18 DBSIZE 返回当前数据库的 key 的数量
19 DEBUG OBJECT key 获取 key 的调试信息
20 DEBUG SEGFAULT 让 Redis 服务崩溃
21 FLUSHALL 删除所有数据库的所有key
22 FLUSHDB 删除当前数据库的所有key
23 INFO [section] 获取 Redis 服务器的各种信息和统计数值
24 LASTSAVE 返回最近一次 Redis 成功将数据保存到磁盘上的时间,以 UNIX 时间戳格式表示
25 MONITOR 实时打印出 Redis 服务器接收到的命令,调试用
26 ROLE 返回主从实例所属的角色
27 SAVE 同步保存数据到硬盘
28 SHUTDOWN [NOSAVE] [SAVE] 异步保存数据到硬盘,并关闭服务器
29 SLAVEOF host port 将当前服务器转变为指定服务器的从属服务器(slave server)
30 SLOWLOG subcommand [argument] 管理 redis 的慢日志
31 SYNC 用于复制功能(replication)的内部命令

Redis Stream

Redis Stream 是 Redis 5.0 版本新增加的数据结构。

Redis Stream 主要用于消息队列(MQ,Message Queue),Redis 本身是有一个 Redis 发布订阅 (pub/sub) 来实现消息队列的功能,但它有个缺点就是消息无法持久化,如果出现网络断开、Redis 宕机等,消息就会被丢弃。

简单来说发布订阅 (pub/sub) 可以分发消息,但无法记录历史消息。

而 Redis Stream 提供了消息的持久化和主备复制功能,可以让任何客户端访问任何时刻的数据,并且能记住每一个客户端的访问位置,还能保证消息不丢失。

Redis Stream 的结构如下所示,它有一个消息链表,将所有加入的消息都串起来,每个消息都有一个唯一的 ID 和对应的内容:

每个 Stream 都有唯一的名称,它就是 Redis 的 key,在我们首次使用 xadd 指令追加消息时自动创建。

消息队列相关命令:

XADD - 添加消息到末尾
XTRIM - 对流进行修剪,限制长度
XDEL - 删除消息
XLEN - 获取流包含的元素数量,即消息长度
XRANGE - 获取消息列表,会自动过滤已经删除的消息
XREVRANGE - 反向获取消息列表,ID 从大到小
XREAD - 以阻塞或非阻塞方式获取消息列表

消费者组相关命令:

XGROUP CREATE - 创建消费者组
XREADGROUP GROUP - 读取消费者组中的消息
XACK - 将消息标记为”已处理”
XGROUP SETID - 为消费者组设置新的最后递送消息ID
XGROUP DELCONSUMER - 删除消费者
XGROUP DESTROY - 删除消费者组
XPENDING - 显示待处理消息的相关信息
XCLAIM - 转移消息的归属权
XINFO - 查看流和消费者组的相关信息;
XINFO GROUPS - 打印消费者组的信息;
XINFO STREAM - 打印流信息

Redis 数据备份与恢复

Redis SAVE 命令用于创建当前数据库的备份。

语法
redis Save 命令基本语法如下:

1
redis 127.0.0.1:6379> SAVE 

实例

1
2
redis 127.0.0.1:6379> SAVE 
OK

该命令将在 redis 安装目录中创建dump.rdb文件。

恢复数据

如果需要恢复数据,只需将备份文件 (dump.rdb) 移动到 redis 安装目录并启动服务即可。获取 redis 目录可以使用 CONFIG 命令,如下所示:

1
2
3
redis 127.0.0.1:6379> CONFIG GET dir
1) "dir"
2) "/usr/local/redis/bin"

以上命令 CONFIG GET dir 输出的 redis 安装目录为 /usr/local/redis/bin。

Bgsave

创建 redis 备份文件也可以使用命令 BGSAVE,该命令在后台执行。

实例

1
2
3
127.0.0.1:6379> BGSAVE

Background saving started

Redis 安全

我们可以通过 redis 的配置文件设置密码参数,这样客户端连接到 redis 服务就需要密码验证,这样可以让你的 redis 服务更安全。

实例
我们可以通过以下命令查看是否设置了密码验证:

1
2
3
127.0.0.1:6379> CONFIG get requirepass
1) "requirepass"
2) ""

默认情况下 requirepass 参数是空的,这就意味着你无需通过密码验证就可以连接到 redis 服务。

你可以通过以下命令来修改该参数:

1
2
3
4
5
127.0.0.1:6379> CONFIG set requirepass "runoob"
OK
127.0.0.1:6379> CONFIG get requirepass
1) "requirepass"
2) "runoob"

设置密码后,客户端连接 redis 服务就需要密码验证,否则无法执行命令。

语法
AUTH 命令基本语法格式如下:

1
127.0.0.1:6379> AUTH password

实例

1
2
3
4
5
6
127.0.0.1:6379> AUTH "runoob"
OK
127.0.0.1:6379> SET mykey "Test value"
OK
127.0.0.1:6379> GET mykey
"Test value"

Redis 客户端连接

Redis 通过监听一个 TCP 端口或者 Unix socket 的方式来接收来自客户端的连接,当一个连接建立后,Redis 内部会进行以下一些操作:

首先,客户端 socket 会被设置为非阻塞模式,因为 Redis 在网络事件处理上采用的是非阻塞多路复用模型。
然后为这个 socket 设置 TCP_NODELAY 属性,禁用 Nagle 算法
然后创建一个可读的文件事件用于监听这个客户端 socket 的数据发送
最大连接数
在 Redis2.4 中,最大连接数是被直接硬编码在代码里面的,而在2.6版本中这个值变成可配置的。

maxclients 的默认值是 10000,你也可以在 redis.conf 中对这个值进行修改。

1
2
3
4
config get maxclients

1) "maxclients"
2) "10000"

实例
以下实例我们在服务启动时设置最大连接数为 100000:

1
redis-server --maxclients 100000

客户端命令

S.N. 命令 描述
1 CLIENT LIST 返回连接到 redis 服务的客户端列表
2 CLIENT SETNAME 设置当前连接的名称
3 CLIENT GETNAME 获取通过 CLIENT SETNAME 命令设置的服务名称
4 CLIENT PAUSE 挂起客户端连接,指定挂起的时间以毫秒计
5 CLIENT KILL 关闭客户端连接

Redis 管道技术

Redis是一种基于客户端-服务端模型以及请求/响应协议的TCP服务。这意味着通常情况下一个请求会遵循以下步骤:

客户端向服务端发送一个查询请求,并监听Socket返回,通常是以阻塞模式,等待服务端响应。
服务端处理命令,并将结果返回给客户端。

Redis 管道技术

Redis 管道技术可以在服务端未响应时,客户端可以继续向服务端发送请求,并最终一次性读取所有服务端的响应。

实例
查看 redis 管道,只需要启动 redis 实例并输入以下命令:

1
2
3
4
5
6
7
8
$(echo -en "PING\r\n SET runoobkey redis\r\nGET runoobkey\r\nINCR visitor\r\nINCR visitor\r\nINCR visitor\r\n"; sleep 10) | nc localhost 6379

+PONG
+OK
redis
:1
:2
:3

以上实例中我们通过使用 PING 命令查看redis服务是否可用, 之后我们设置了 runoobkey 的值为 redis,然后我们获取 runoobkey 的值并使得 visitor 自增 3 次。

在返回的结果中我们可以看到这些命令一次性向 redis 服务提交,并最终一次性读取所有服务端的响应

管道技术的优势

管道技术最显著的优势是提高了 redis 服务的性能。

一些测试数据
在下面的测试中,我们将使用Redis的Ruby客户端,支持管道技术特性,测试管道技术对速度的提升效果。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
require 'rubygems' 
require 'redis'
def bench(descr)
start = Time.now
yield
puts "#{descr} #{Time.now-start} seconds"
end
def without_pipelining
r = Redis.new
10000.times {
r.ping
}
end
def with_pipelining
r = Redis.new
r.pipelined {
10000.times {
r.ping
}
}
end
bench("without pipelining") {
without_pipelining
}
bench("with pipelining") {
with_pipelining
}

从处于局域网中的Mac OS X系统上执行上面这个简单脚本的数据表明,开启了管道操作后,往返延时已经被改善得相当低了。

1
2
without pipelining 1.185238 seconds 
with pipelining 0.250783 seconds

如你所见,开启管道后,我们的速度效率提升了5倍。

Redis 分区

分区是分割数据到多个Redis实例的处理过程,因此每个实例只保存key的一个子集。

分区的优势

通过利用多台计算机内存的和值,允许我们构造更大的数据库。
通过多核和多台计算机,允许我们扩展计算能力;通过多台计算机和网络适配器,允许我们扩展网络带宽。

分区的不足

redis的一些特性在分区方面表现的不是很好:

  • 涉及多个key的操作通常是不被支持的。举例来说,当两个set映射到不同的redis实例上时,你就不能对这两个set执行交集操作。
  • 涉及多个key的redis事务不能使用。
  • 当使用分区时,数据处理较为复杂,比如你需要处理多个rdb/aof文件,并且从多个实例和主机备份持久化文件。
  • 增加或删除容量也比较复杂。redis集群大多数支持在运行时增加、删除节点的透明数据平衡的能力,但是类似于客户端分区、代理等其他系统则不支持这项特性。然而,一种叫做presharding的技术对此是有帮助的。

    分区类型

    Redis 有两种类型分区。 假设有4个Redis实例 R0,R1,R2,R3,和类似user:1,user:2这样的表示用户的多个key,对既定的key有多种不同方式来选择这个key存放在哪个实例中。也就是说,有不同的系统来映射某个key到某个Redis服务。

范围分区

最简单的分区方式是按范围分区,就是映射一定范围的对象到特定的Redis实例。

比如,ID从0到10000的用户会保存到实例R0,ID从10001到 20000的用户会保存到R1,以此类推。

这种方式是可行的,并且在实际中使用,不足就是要有一个区间范围到实例的映射表。这个表要被管理,同时还需要各 种对象的映射表,通常对Redis来说并非是好的方法。

哈希分区

另外一种分区方法是hash分区。这对任何key都适用,也无需是object_name:这种形式,像下面描述的一样简单:

用一个hash函数将key转换为一个数字,比如使用crc32 hash函数。对key foobar执行crc32(foobar)会输出类似93024922的整数。
对这个整数取模,将其转化为0-3之间的数字,就可以将这个整数映射到4个Redis实例中的一个了。93024922 % 4 = 2,就是说key foobar应该被存到R2实例中。注意:取模操作是取除的余数,通常在多种编程语言中用%操作符实现。

Java 使用 Redis

安装
开始在 Java 中使用 Redis 前, 我们需要确保已经安装了 redis 服务及 Java redis 驱动,且你的机器上能正常使用 Java。 Java的安装配置可以参考我们的 Java 开发环境配置 接下来让我们安装 Java redis 驱动:

首先你需要下载驱动包 下载 jedis.jar,确保下载最新驱动包。
在你的 classpath 中包含该驱动包

连接到 redis 服务

实例

1
2
3
4
5
6
7
8
9
10
11
12
13
import redis.clients.jedis.Jedis;

public class RedisJava {
public static void main(String[] args) {
//连接本地的 Redis 服务
Jedis jedis = new Jedis("localhost");
// 如果 Redis 服务设置来密码,需要下面这行,没有就不需要
// jedis.auth("123456");
System.out.println("连接成功");
//查看服务是否运行
System.out.println("服务正在运行: "+jedis.ping());
}
}

编译以上 Java 程序,确保驱动包的路径是正确的。

连接成功
服务正在运行: PONG

Redis Java String(字符串) 实例

实例

1
2
3
4
5
6
7
8
9
10
11
12
13
import redis.clients.jedis.Jedis;

public class RedisStringJava {
public static void main(String[] args) {
//连接本地的 Redis 服务
Jedis jedis = new Jedis("localhost");
System.out.println("连接成功");
//设置 redis 字符串数据
jedis.set("runoobkey", "www.runoob.com");
// 获取存储的数据并输出
System.out.println("redis 存储的字符串为: "+ jedis.get("runoobkey"));
}
}

编译以上程序。

连接成功
redis 存储的字符串为: www.runoob.com

Redis Java List(列表) 实例

实例

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
import java.util.List;
import redis.clients.jedis.Jedis;

public class RedisListJava {
public static void main(String[] args) {
//连接本地的 Redis 服务
Jedis jedis = new Jedis("localhost");
System.out.println("连接成功");
//存储数据到列表中
jedis.lpush("site-list", "Runoob");
jedis.lpush("site-list", "Google");
jedis.lpush("site-list", "Taobao");
// 获取存储的数据并输出
List<String> list = jedis.lrange("site-list", 0 ,2);
for(int i=0; i<list.size(); i++) {
System.out.println("列表项为: "+list.get(i));
}
}
}

编译以上程序。

连接成功
列表项为: Taobao
列表项为: Google
列表项为: Runoob

Redis Java Keys 实例

实例

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
import java.util.Iterator;
import java.util.Set;
import redis.clients.jedis.Jedis;

public class RedisKeyJava {
public static void main(String[] args) {
//连接本地的 Redis 服务
Jedis jedis = new Jedis("localhost");
System.out.println("连接成功");

// 获取数据并输出
Set<String> keys = jedis.keys("*");
Iterator<String> it=keys.iterator() ;
while(it.hasNext()){
String key = it.next();
System.out.println(key);
}
}
}

编译以上程序。

连接成功
runoobkey
site-list